JP6406966B2 - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM - Google Patents

IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM Download PDF

Info

Publication number
JP6406966B2
JP6406966B2 JP2014206659A JP2014206659A JP6406966B2 JP 6406966 B2 JP6406966 B2 JP 6406966B2 JP 2014206659 A JP2014206659 A JP 2014206659A JP 2014206659 A JP2014206659 A JP 2014206659A JP 6406966 B2 JP6406966 B2 JP 6406966B2
Authority
JP
Japan
Prior art keywords
image
face
unit
image data
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014206659A
Other languages
Japanese (ja)
Other versions
JP2016076850A (en
Inventor
吉田 仁
仁 吉田
真優 三木
真優 三木
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014206659A priority Critical patent/JP6406966B2/en
Publication of JP2016076850A publication Critical patent/JP2016076850A/en
Application granted granted Critical
Publication of JP6406966B2 publication Critical patent/JP6406966B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、撮像装置の制御方法、撮像装置の制御プログラムに関する。   The present invention relates to an imaging apparatus, an imaging apparatus control method, and an imaging apparatus control program.

従来、肌荒れや皺等肌の情報を把握するための手段としてのさまざまな肌分析装置が提供されている。特許文献1では、顔の画像を取得し、当該画像において分析エリアを選択して、選択された分析エリアについて画像分析を行い、その分析結果を表示部に表示する顔面肌分析装置が提案されている。   Conventionally, various skin analysis devices have been provided as means for grasping skin information such as rough skin and wrinkles. Patent Document 1 proposes a facial skin analysis device that acquires a face image, selects an analysis area in the image, performs image analysis on the selected analysis area, and displays the analysis result on a display unit. Yes.

このような肌分析手段の動作の一例として、例えば、顔パーツごとに分析エリアを設定し、顔パーツごとに肌画像を分析してそれらの結果を比較することがある。このような場合に、分析対象である複数の顔パーツを含むように、例えば、顔全体を撮影し顔全体の画像を取得することがある。ここで、顔においてそれぞれの顔パーツは異なる奥行に位置しているので、撮影時に一部の顔パーツにフォーカスが合い他の顔パーツにフォーカスが合わないことがあり得る。顔全体の画像においてフォーカスが合っていない部分は、分析用の画像として必ずしも適当とはいえない。   As an example of the operation of such skin analysis means, for example, an analysis area may be set for each face part, a skin image may be analyzed for each face part, and the results may be compared. In such a case, for example, the entire face may be photographed to obtain an image of the entire face so as to include a plurality of face parts to be analyzed. Here, since each face part is located at a different depth in the face, it is possible that some face parts are in focus and other face parts are not in focus at the time of shooting. The portion of the entire face image that is not in focus is not necessarily suitable as an image for analysis.

顔に限らず、奥行を有する被写体を撮影する場合に、被写体の一部にフォーカスが合わないことがあり得る。   When photographing a subject having a depth as well as the face, a part of the subject may not be focused.

特開2012−232128公報JP2012-232128A

本発明は、奥行を有する被写体を分析するために、奥行きが異なる複数の部分の合焦した画像を容易に取得可能な撮像装置、撮像装置の制御方法、及び、撮像装置の制御プログラムを提供する。   The present invention provides an imaging apparatus, an imaging apparatus control method, and an imaging apparatus control program capable of easily acquiring focused images of a plurality of portions having different depths in order to analyze a subject having a depth. .

本発明の一態様の撮像装置は、奥行を有し、顔を含む被写体の光学像を結像させるレンズと、受光面上に結像された前記光学像に基づいて分析用の画像データを生成する撮像素子と、前記レンズのフォーカス位置を変更させるフォーカス変更部と、前記画像データにおける顔から顔パーツを認識する顔判定部と、前記フォーカス変更部に、前記顔パーツに合わせて前記フォーカス位置を変更させ、前記撮像素子に、順次に複数の前記奥行が異なる前記顔パーツごとにフォーカスが合っている前記画像データを生成させる制御部と、前記撮像素子により生成された前記画像データと、肌画像サンプルデータとを前記顔パーツごとに比較するパターン判定部とを具備する。 One aspect of the image pickup apparatus of the present invention, have a depth, generating a lens for forming an optical image of a subject including a face, the image data for analysis on the basis of the optical image formed on the light receiving surface The focus position according to the face part in the imaging device, the focus changing unit for changing the focus position of the lens, the face determining unit for recognizing a facial part from the face in the image data, and the focus changing unit. A control unit that causes the image sensor to generate the image data in focus for each of the face parts having different depths, the image data generated by the image sensor, and a skin image. A pattern determination unit that compares the sample data for each face part .

本発明の一態様の撮像装置の制御方法は、奥行を有し、顔を含む被写体の光学像を結像させるレンズのフォーカス位置を変更することと、撮像素子の受光面上に結像された前記光学像に基づいて、順次に複数の分析用の画像データを前記撮像素子に生成させることと、前記画像データにおける顔から認識された顔パーツに合わせて、前記フォーカス位置を変更させることと、前記撮像素子に、順次に複数の前記奥行が異なる前記顔パーツごとにフォーカスが合っている前記画像データを生成させることと、前記撮像素子により生成された前記画像データと、肌画像サンプルデータとを前記顔パーツごとに比較することとを具備する。 The method of one embodiment of an imaging apparatus of the present invention, have a depth, and changing the focus position of the lens for forming an optical image of a subject including a face, is formed on the light receiving surface of the imaging device Based on the optical image, sequentially causing the image sensor to generate a plurality of analysis image data , changing the focus position according to the face part recognized from the face in the image data, Causing the image sensor to sequentially generate the image data in focus for each of the face parts having different depths; and the image data generated by the image sensor and skin image sample data. Comparing each face part .

本発明の一態様の撮像装置の制御プログラムは、コンピュータに、奥行を有し、顔を含む被写体の光学像を結像させるレンズのフォーカス位置を変更する手順、撮像素子の受光面上に結像された前記光学像に基づいて、順次に複数の分析用の画像データを前記撮像素子に生成させる手順、前記画像データにおける顔から認識された顔パーツに合わせて、前記フォーカス位置を変更させる手順、前記撮像素子に、順次に複数の前記奥行が異なる前記顔パーツごとにフォーカスが合っている前記画像データを生成させる手順、前記撮像素子により生成された前記画像データと、肌画像サンプルデータとを前記顔パーツごとに比較する手順を実行させる。 The control program of one embodiment of an imaging apparatus of the present invention, focused on the computer, have a depth, to change the focus position of the lens for forming an optical image of a subject including a face, on the light receiving surface of the imaging device A procedure for causing the image sensor to sequentially generate a plurality of image data for analysis based on the optical image, a procedure for changing the focus position according to a face part recognized from a face in the image data, A procedure for causing the image sensor to generate the image data in focus for each of the face parts having different depths sequentially, the image data generated by the image sensor, and skin image sample data. The procedure for comparing each face part is executed.

本発明によれば、奥行を有する被写体を分析するために、奥行きが異なる複数の部分の合焦した画像を容易に取得可能な撮像装置、撮像装置の制御方法、撮像装置の制御プログラムを提供できる。   According to the present invention, it is possible to provide an imaging device, an imaging device control method, and an imaging device control program capable of easily acquiring focused images of a plurality of portions having different depths in order to analyze a subject having a depth. .

図1は、第1実施形態に係る撮像装置の構成例の概略を示すブロック図である。FIG. 1 is a block diagram illustrating an outline of a configuration example of an imaging apparatus according to the first embodiment. 図2は、第1実施形態に係る撮像装置の外観の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of an appearance of the imaging apparatus according to the first embodiment. 図3は、撮像装置の第1の状態から第2の状態への遷移を説明するための図である。FIG. 3 is a diagram for explaining a transition from the first state to the second state of the imaging apparatus. 図4は、第2の状態の撮像装置を用いた撮影の状況の一例を示す図である。FIG. 4 is a diagram illustrating an example of a shooting situation using the imaging device in the second state. 図5は、撮像装置の表示の一例を示す図である。FIG. 5 is a diagram illustrating an example of the display of the imaging apparatus. 図6は、各実施形態に係る撮像装置1の動作例を示すフローチャートである。FIG. 6 is a flowchart illustrating an operation example of the imaging apparatus 1 according to each embodiment. 図7は、第1実施形態に係る肌チェックモード処理の動作例を示すフローチャートである。FIG. 7 is a flowchart illustrating an operation example of the skin check mode process according to the first embodiment. 図8は、肌チェックモード処理における表示の一例を示す図である。FIG. 8 is a diagram illustrating an example of display in the skin check mode process. 図9は、顔パーツごとの奥行について説明するための図である。FIG. 9 is a diagram for explaining the depth of each face part. 図10は、顔パーツ判定結果の表示の一例を示す図である。FIG. 10 is a diagram illustrating an example of the display of the face part determination result. 図11は、第2実施形態に係る肌チェックモード処理の動作例を示すフローチャートである。FIG. 11 is a flowchart illustrating an operation example of the skin check mode process according to the second embodiment. 図12は、第2実施形態に係る肌チェックモード処理における表示の一例を示す図である。FIG. 12 is a diagram illustrating an example of display in the skin check mode process according to the second embodiment. 図13は、第3実施形態に係る肌チェックモード処理の動作例を示すフローチャートである。FIG. 13 is a flowchart illustrating an operation example of the skin check mode process according to the third embodiment. 図14は、顔ガイド枠の移動操作の1つの例を示す図である。FIG. 14 is a diagram illustrating an example of the movement operation of the face guide frame. 図15は、顔パーツの大きさの変更操作の一例を示す図である。FIG. 15 is a diagram illustrating an example of a face part size changing operation.

[第1実施形態]
本実施形態に係る撮像装置の構成について説明する。本実施形態に係る撮像装置は、撮影者自身の顔の画像を取得し、この画像に基づいて、撮影者の肌の状態が良好であるか否かを判定する機能を有する。図1は、本実施形態に係る撮像装置1の構成の概略を示すブロック図である。撮像装置1は、図1に示すように、撮像部2と、フォーカス変更部3と、記録部5と、操作部7と、姿勢検出部8と、制御部10と、表示部22とを有する。表示部22は、タッチパネル4と、表示パネル6とを有する。
[First Embodiment]
A configuration of the imaging apparatus according to the present embodiment will be described. The imaging apparatus according to the present embodiment has a function of acquiring an image of the photographer's own face and determining whether the photographer's skin condition is good based on this image. FIG. 1 is a block diagram illustrating an outline of a configuration of an imaging apparatus 1 according to the present embodiment. As illustrated in FIG. 1, the imaging device 1 includes an imaging unit 2, a focus change unit 3, a recording unit 5, an operation unit 7, a posture detection unit 8, a control unit 10, and a display unit 22. . The display unit 22 includes the touch panel 4 and the display panel 6.

撮像部2は、レンズ2aと撮像素子2bと絞り2cとを有する。レンズ2aは、1つ又は複数のレンズであり、被写体から発せられた光束に基づいて撮像素子2bの受光面に光学像を結像させる。撮像素子2bは、受光面上に結像した前記光学像に基づく画像信号(画像データ)を生成する。絞り2cは、光束の量を調整する。   The imaging unit 2 includes a lens 2a, an imaging element 2b, and a diaphragm 2c. The lens 2a is one or a plurality of lenses, and forms an optical image on the light receiving surface of the image sensor 2b based on a light beam emitted from a subject. The image sensor 2b generates an image signal (image data) based on the optical image formed on the light receiving surface. The diaphragm 2c adjusts the amount of light flux.

フォーカス変更部3は、フォーカス位置を変更するために、レンズ2aの位置を制御部10から入力された信号に基づいて変化させる。フォーカス変更部3は、例えば、レンズ2aの位置を検出するエンコーダと、レンズ2aを移動させる駆動部とを有する。   The focus changing unit 3 changes the position of the lens 2a based on a signal input from the control unit 10 in order to change the focus position. The focus changing unit 3 includes, for example, an encoder that detects the position of the lens 2a and a drive unit that moves the lens 2a.

記録部5は、画像データを記録する。また、記録部5は、画像データベース(DB)5aを有する。画像DB5aは、対象物画像と比較する検査のための基準となる画像を記録したものである。また、検査時に対象物画像と比較できるようなデータは、画像に限らない。このデータは、画像そのものでもよく、その特徴を示した特徴量でもよく、単純化された画像パターンや色やコントラストなどの数値でも良い。必ずしも、画像は、位置や拡大率を重ねて一致させることは困難であるし、露出レベルや光源やホワイトバランスによっても比較結果が変わるものである。そのため、検査のための基準となる画像は、この画像自体を拡大させたり又は縮小させたり、この画像の位置をずらしたりして、対象物画像との一致度を確認するのに適当なものであったり、露出レベルやホワイトバランスを変えることが可能になっていたりしても良い。具体的には、画像DB5aは、ひとつの判定を行うのに比較するために条件を変えた複数画像を持っていてもよいし、色ごとに分解したデータを持っているようにしても良い。さらに、対象物の部位ごとに、画像の評価基準が変わる可能性もあるので、画像DB5aは、対象物の部位ごとに画像を分類して記録していることが好ましい。この部位は、画像判定によって分類できる部位であることを想定している。本実施形態では、画像DB5aは、肌画像サンプルデータを含む。この肌画像サンプルデータは、各顔パーツの種々の肌状態を表す画像のデータである。ここで顔パーツには、例えば、人の額、瞼、目尻、鼻、鼻翼、頬等が含まれる。また、肌状態には、例えば、赤ちゃん並みの肌状態、又は荒れている肌状態等が含まれる。顔の肌を判定する場合以外にも、手のひらの荒れなどを判定する用途も想定でき、この場合は、指やその付け根などをパーツ判定できるようにするなど応用が可能である。もちろん、肌状態でなくとも、傷や発疹なども判定可能にしても良い。   The recording unit 5 records image data. The recording unit 5 includes an image database (DB) 5a. The image DB 5a records an image serving as a reference for inspection to be compared with the object image. The data that can be compared with the object image at the time of inspection is not limited to the image. This data may be an image itself, a feature amount indicating the feature, or a simplified image pattern, or a numerical value such as a color or contrast. It is not always easy to match the positions and enlargement ratios of images, and the comparison results vary depending on the exposure level, light source, and white balance. For this reason, the reference image for inspection is suitable for checking the degree of coincidence with the object image by enlarging or reducing the image itself or shifting the position of the image. It may be possible to change the exposure level and white balance. Specifically, the image DB 5a may have a plurality of images with different conditions for comparison to perform one determination, or may have data separated for each color. Furthermore, since the evaluation criteria of the image may change for each part of the object, it is preferable that the image DB 5a classifies and records the image for each part of the object. This part is assumed to be a part that can be classified by image determination. In the present embodiment, the image DB 5a includes skin image sample data. This skin image sample data is image data representing various skin states of each face part. Here, the face parts include, for example, a person's forehead, eyelids, corners of eyes, nose, nose wings, cheeks, and the like. The skin condition includes, for example, a baby-like skin condition or a rough skin condition. In addition to the case of determining the skin of the face, it is also possible to assume the use of determining the roughness of the palm. In this case, it is possible to apply such as making it possible to determine the part of the finger or its base. Of course, even if it is not a skin condition, it may be possible to determine a wound or a rash.

操作部7は、例えば、押圧を検出する釦、十字キー、又は、回転角を検出するダイヤル等の構成を含み、ユーザによる操作を検出して信号を出力する。これら釦等によって、後述する、レリーズスイッチ(SW)23、前面スイッチ(SW)26等が構成される。   The operation unit 7 includes, for example, a button that detects pressing, a cross key, or a dial that detects a rotation angle, and detects a user operation and outputs a signal. These buttons and the like constitute a later-described release switch (SW) 23, front switch (SW) 26, and the like.

表示部22は、表示パネル6と、タッチパネル4とを有する。表示パネル6は、例えば、液晶ディスプレイ又は有機ELディスプレイである。表示パネル6は、制御部10より入力された画像信号に基づく画像を表示する。表示パネル6上にはタッチパネル4が設けられている。このタッチパネル4は、タッチ位置に基づく信号を出力する。   The display unit 22 includes the display panel 6 and the touch panel 4. The display panel 6 is, for example, a liquid crystal display or an organic EL display. The display panel 6 displays an image based on the image signal input from the control unit 10. A touch panel 4 is provided on the display panel 6. The touch panel 4 outputs a signal based on the touch position.

姿勢検出部8は、例えば、撮像装置1の上下左右の向き、すなわち、撮像素子2bの上下左右の向きを検出する加速度センサを有する。また、後述するように、表示部22は、カメラ本体に対して変位する。姿勢検出部8は、カメラ本体に対する表示部22の回転角を検出するエンコーダを有する。撮像素子2bの上下左右の向きとカメラ本体に対する表示部22の回転角とを合わせて撮像装置1の姿勢と称することにする。   The posture detection unit 8 includes, for example, an acceleration sensor that detects the vertical and horizontal orientations of the imaging device 1, that is, the vertical and horizontal orientations of the imaging device 2b. As will be described later, the display unit 22 is displaced with respect to the camera body. The posture detection unit 8 includes an encoder that detects the rotation angle of the display unit 22 with respect to the camera body. The orientation of the imaging device 2b and the rotation angle of the display unit 22 with respect to the camera body are collectively referred to as the orientation of the imaging device 1.

制御部10は、Central Processing Unit(CPU)、又はApplication Specific Integrated Circuit(ASIC)等を含み、各種演算を行う。制御部10は、顔判定部10aと、フォーカス制御部10bと、パターン判定部10cと、記録制御部10dと、操作判定部10eと、表示制御部10fと、表示方向判定部10gとを有する。   The control unit 10 includes a central processing unit (CPU) or an application specific integrated circuit (ASIC), and performs various calculations. The control unit 10 includes a face determination unit 10a, a focus control unit 10b, a pattern determination unit 10c, a recording control unit 10d, an operation determination unit 10e, a display control unit 10f, and a display direction determination unit 10g.

顔判定部10aは、画像に含まれる目、口等顔の特徴を検出する。顔判定部10aは、検出結果に基づいて、画像に含まれる顔を抽出する。また、顔判定部10aは、目、口等の特徴と抽出された顔とに基づいて、顔に含まれる顔パーツを抽出する。   The face determination unit 10a detects facial features such as eyes and mouth included in the image. The face determination unit 10a extracts a face included in the image based on the detection result. Further, the face determination unit 10a extracts face parts included in the face based on features such as eyes and mouth and the extracted face.

フォーカス制御部10bは、レンズ2aのフォーカス位置を設定し、フォーカス変更部3にフォーカス位置に係る信号を入力する。   The focus control unit 10 b sets the focus position of the lens 2 a and inputs a signal related to the focus position to the focus change unit 3.

パターン判定部10cは、顔パーツごとに、画像データから抽出された画像と、対応する顔パーツの肌画像サンプルデータに係る画像とを比較し、これら画像が有する特徴、例えば、色又はコントラスト等の特徴の一致の程度を判定する。   For each facial part, the pattern determination unit 10c compares the image extracted from the image data with the image related to the skin image sample data of the corresponding facial part, and the features of these images, such as color or contrast, etc. The degree of feature matching is determined.

記録制御部10dは、画像DB5aへの画像データの読み出し及び書き込みを含む、記録部5への画像データの読み出し及び書き込みの制御を行う。   The recording control unit 10d controls reading and writing of image data to the recording unit 5 including reading and writing of image data to the image DB 5a.

操作判定部10eは、操作部7及びタッチパネル4から入力された信号を判定する。判定された信号に基づいて、絞り2cに光量を調整させたり、撮像部2に撮影を行わせたりするなど、撮像装置1の各部の動作が制御される。   The operation determination unit 10 e determines a signal input from the operation unit 7 and the touch panel 4. Based on the determined signal, the operation of each unit of the imaging apparatus 1 is controlled, such as causing the diaphragm 2c to adjust the amount of light or causing the imaging unit 2 to perform shooting.

表示方向判定部10gは、姿勢検出部8により検出された撮像装置1の姿勢に基づいて、表示パネル6に表示させる画像の向き、例えば、表示の上下方向、及び鏡面表示の可否を判定する。   The display direction determination unit 10g determines the orientation of the image to be displayed on the display panel 6, for example, the vertical direction of the display, and the possibility of mirror display based on the attitude of the imaging device 1 detected by the attitude detection unit 8.

表示制御部10fは、画像データに基づく画像、例えば、撮影画像、アイコン、又は後述する顔ガイド枠等の画像の表示を、表示方向判定部10gの判定に基づく向きに表示パネル6に行わせる等制御する。   The display control unit 10f causes the display panel 6 to display an image based on the image data, for example, an image such as a captured image, an icon, or a face guide frame to be described later, in a direction based on the determination by the display direction determination unit 10g. Control.

撮像装置1の外観について説明する。図2は、撮像装置1の外観を示す図である。図2(A)は、撮像装置1の第1の状態の外観を示す図である。図2(B)は、撮像装置1の第2の状態の外観を示す図である。図2(A)に示すように、撮像装置1は、カメラ本体21と、表示部22と、ヒンジ25とを有する。   The appearance of the imaging device 1 will be described. FIG. 2 is a diagram illustrating an appearance of the imaging apparatus 1. FIG. 2A is a diagram illustrating an appearance of the imaging apparatus 1 in the first state. FIG. 2B is a diagram illustrating an appearance of the imaging device 1 in the second state. As illustrated in FIG. 2A, the imaging device 1 includes a camera body 21, a display unit 22, and a hinge 25.

カメラ本体21には、撮像部2、フォーカス変更部3、記録部5及び制御部10等、撮像装置1の主な要素が設けられている。一方、表示部22には、前述のとおり表示パネル6及びタッチパネル4が設けられている。ヒンジ25は、カメラ本体21の上面21cと表示部22の上面22cとに、表示部22がカメラ本体21に対して回動自在となるように取り付けられている。なお、ヒンジ25には、上述の姿勢検出部8のエンコーダが設けられることで、カメラ本体21に対する表示部22の回転角が検出される。   The camera body 21 is provided with main elements of the imaging device 1 such as the imaging unit 2, the focus changing unit 3, the recording unit 5, and the control unit 10. On the other hand, the display unit 22 is provided with the display panel 6 and the touch panel 4 as described above. The hinge 25 is attached to the upper surface 21 c of the camera body 21 and the upper surface 22 c of the display unit 22 so that the display unit 22 can rotate with respect to the camera body 21. In addition, the rotation angle of the display unit 22 with respect to the camera body 21 is detected by providing the hinge 25 with the encoder of the posture detection unit 8 described above.

カメラ本体21において、撮像部2によって撮像する方向、すなわちレンズ2aが向く方向を前方と称し、反対方向を後方と称することにする。また、カメラ本体21のヒンジ25が取り付けられている方向を上方と称し、反対方向を下方と称することにする。また、カメラ本体21の上面21cを上方に向けて後方から前方を見たときに、右方及び左方を定義することにする。   In the camera main body 21, the direction in which the imaging unit 2 captures an image, that is, the direction in which the lens 2a faces is referred to as the front, and the opposite direction is referred to as the rear. The direction in which the hinge 25 of the camera body 21 is attached is referred to as “upward”, and the opposite direction is referred to as “downward”. Further, when the front surface 21c of the camera body 21 is directed upward and the front is viewed from the rear, the right side and the left side are defined.

第1の状態においては、表示部22は、カメラ本体21の後方に配置され、表示パネル6の表示面が後方を向く。これに対して、第2の状態においては、表示部22は、カメラ本体21の上方に配置され、表示パネル6の表示面は前方を向き、図2(B)に示すように上下は反転されてカメラ本体21が天井側に位置するように用いられる。   In the first state, the display unit 22 is disposed behind the camera body 21 and the display surface of the display panel 6 faces rearward. On the other hand, in the second state, the display unit 22 is disposed above the camera body 21, the display surface of the display panel 6 faces frontward, and is turned upside down as shown in FIG. The camera body 21 is used so as to be located on the ceiling side.

本実施形態では、第1の状態においてレリーズ操作に用いられるレリーズSW23は、カメラ本体21の上面21cの右側に設けられている。このため、第1の状態においては、ユーザが撮像部2を被写体の方向に向けて撮像装置1を構えることで、表示部22でスルー画を確認しながら、右手人差し指でレリーズSW23を操作することができる。   In the present embodiment, the release SW 23 used for the release operation in the first state is provided on the right side of the upper surface 21 c of the camera body 21. Therefore, in the first state, the user operates the release SW 23 with the right hand index finger while checking the through image on the display unit 22 by holding the imaging device 1 with the imaging unit 2 facing the subject. Can do.

第2の状態では、レリーズSW23がカメラ本体21と表示部22との間に位置することになり、ユーザはレリーズSW23を操作することができない。そこで、第2の状態では、カメラ本体21の前方の面である前面21aに設けられた前面SW26が、レリーズ操作に用いられる。なお、第1の状態においては、前面SW26は、撮像装置1のパラメータを設定するために用いられる。設定されるパラメータは、例えば、シャッタースピード、絞り値等といった光学的なパラメータである。なお、このパラメータは、コントラスト又は色の補正といった画像処理のパラメータであっても良い。   In the second state, the release SW 23 is positioned between the camera body 21 and the display unit 22, and the user cannot operate the release SW 23. Therefore, in the second state, the front surface SW 26 provided on the front surface 21a that is the front surface of the camera body 21 is used for the release operation. In the first state, the front surface SW 26 is used for setting parameters of the imaging apparatus 1. The parameters to be set are optical parameters such as shutter speed and aperture value. This parameter may be an image processing parameter such as contrast or color correction.

図2(B)に示すように、第2の状態において、表示パネル6には、パラメータ設定を行うためのアイコン6aと、肌チェックモードを選択するためのアイコン6bとが表示される。   As shown in FIG. 2B, in the second state, the display panel 6 displays an icon 6a for setting parameters and an icon 6b for selecting a skin check mode.

図3は、撮像装置1の第1の状態から第2の状態への遷移の様子の一例を示す。図3(A)は、第1の状態の撮像装置1を示す。図3(D)は、第2の状態の撮像装置1を示す。図3(B)及び(C)は、第1の状態から第2の状態への遷移中の撮像装置1の状態を示す。図3(A)に示す第1の状態で撮像装置1を使用していた撮像装置1を第2の状態に移行させるとき、ユーザは、カメラ本体21を保持し、図3(B)に示すように表示部22を上方に向けて持ち上げ、図3(C)に示すように表示部22の表示面がカメラ本体21のレンズ2aの方向に向くようにする。その後、ユーザは、撮像装置1の上下を反転させて、第2の状態にする。   FIG. 3 shows an example of a state of transition of the imaging device 1 from the first state to the second state. FIG. 3A shows the imaging device 1 in the first state. FIG. 3D shows the imaging device 1 in the second state. 3B and 3C show the state of the imaging device 1 during the transition from the first state to the second state. When the imaging apparatus 1 that has been using the imaging apparatus 1 in the first state illustrated in FIG. 3A is shifted to the second state, the user holds the camera body 21 and is illustrated in FIG. In this way, the display unit 22 is lifted upward so that the display surface of the display unit 22 faces the lens 2a of the camera body 21 as shown in FIG. Thereafter, the user reverses the top and bottom of the imaging device 1 to enter the second state.

図4は、第2の状態の撮像装置1を用いた撮影の状況の一例を示す。図4に示すように、ユーザAは、第2の状態の撮像装置1を、レンズ2aが自身の方向を向くように把持する。このとき、スルー画が表示される表示パネル6の表示面は、ユーザAの方向を向く。その結果、ユーザAは、表示パネル6に表示されるユーザA自身の顔の大きさ又は位置等を確認しながら撮影を行うことができる。また、ユーザAは、レンズ2aと同じ面に配置された前面SW26によってレリーズ操作を行うことで、片手による操作で自身を撮影することができる。   FIG. 4 shows an example of a shooting situation using the imaging device 1 in the second state. As illustrated in FIG. 4, the user A holds the imaging device 1 in the second state so that the lens 2 a faces its own direction. At this time, the display surface of the display panel 6 on which the through image is displayed faces the direction of the user A. As a result, the user A can take a picture while confirming the size or position of the face of the user A himself / herself displayed on the display panel 6. Further, the user A can take a picture of himself / herself by an operation with one hand by performing a release operation with the front surface SW 26 arranged on the same surface as the lens 2a.

図5は、第1の状態及び第2の状態における撮像装置1の表示の一例を示す。図5(A)は、第1の状態における表示状態を示し、図5(B)は、第2の状態における表示状態を示す。図5(A)に示す第1の状態では、カメラ本体21の前方に位置する被写体Bがレンズ2aを用いて撮影され、カメラ本体21の後方に後方を向いて配置された表示パネル6にスルー画や撮影画像が表示される。第1の状態におけるこのような表示の状態を、第1の表示状態と称する。   FIG. 5 shows an example of the display of the imaging apparatus 1 in the first state and the second state. FIG. 5A shows the display state in the first state, and FIG. 5B shows the display state in the second state. In the first state shown in FIG. 5A, the subject B located in front of the camera body 21 is photographed using the lens 2a, and is passed through the display panel 6 arranged rearwardly behind the camera body 21. Images and captured images are displayed. Such a display state in the first state is referred to as a first display state.

一方、図5(B)に示す第2の状態では、カメラ本体21の前方に位置するユーザAがレンズ2aにより撮影され、カメラ本体21の上方に前方を向いて配置された表示パネル6にスルー画や撮影画像が表示される。第2の状態では、第1の状態と比較して、撮像素子2bに対する表示パネル6の向きが反転している。そこで、第2の状態では、表示パネル6に表示される画像は、第1の状態において表示パネル6に表示される画像に対して上下が反対となるように回転されたものとなっている。さらに、鏡に写る自分を見るかのようにユーザAが表示パネル6に表示されるスルー画を見られるように、表示パネル6に表示される画像は左右反転された画像としてもよい。このような左右反転された画像表示を鏡面表示と呼ぶことにする。このような表示の状態を第2の表示状態と称する。   On the other hand, in the second state shown in FIG. 5B, the user A located in front of the camera body 21 is photographed by the lens 2a, and is passed through the display panel 6 arranged facing the front above the camera body 21. Images and captured images are displayed. In the second state, the orientation of the display panel 6 with respect to the imaging device 2b is reversed as compared with the first state. Therefore, in the second state, the image displayed on the display panel 6 is rotated so that the image displayed on the display panel 6 in the first state is upside down. Furthermore, the image displayed on the display panel 6 may be a horizontally reversed image so that the user A can see a through image displayed on the display panel 6 as if he / she sees himself / herself in the mirror. Such a left-right inverted image display is called a mirror display. Such a display state is referred to as a second display state.

本実施形態に係る撮像装置1の動作について説明する。図6は、本実施形態に係る撮像装置1の動作を示すフローチャートである。この撮像装置1は、例えば電源がONになったとき等に動作を開始する。   An operation of the imaging apparatus 1 according to the present embodiment will be described. FIG. 6 is a flowchart showing the operation of the imaging apparatus 1 according to this embodiment. The imaging apparatus 1 starts its operation when the power is turned on, for example.

ステップS101において、制御部10は、撮影モードが選択されているか否かを判定する。ステップS101において、撮影モードが選択されていると判定されたとき、処理がステップS102に進む。   In step S101, the control unit 10 determines whether a shooting mode is selected. If it is determined in step S101 that the shooting mode is selected, the process proceeds to step S102.

ステップS101において、撮影モードが選択されていなかったと判定されたとき、処理がステップS117に進む。制御部10は、ステップS117において、その他のモード処理を行う。その他のモード処理では、例えば、画像を再生する再生モード等に係る処理が行われる。ここでは、その他のモード処理に関する説明を省略する。その他のモード処理が行われた後、処理がステップS101に戻る。   If it is determined in step S101 that the shooting mode has not been selected, the process proceeds to step S117. In step S117, the control unit 10 performs other mode processing. In the other mode processing, for example, processing related to a reproduction mode for reproducing an image is performed. Here, description regarding other mode processing is omitted. After the other mode processing is performed, the processing returns to step S101.

ステップS102において、制御部10は、撮像素子2bにスルー画の取得を開始させる。その後、処理がステップS103に進む。   In step S102, the control unit 10 causes the image sensor 2b to start acquiring a through image. Thereafter, the process proceeds to step S103.

ステップS103において、制御部10は、撮像装置1の状態が第2の状態であるか否かを判定する。すなわち、この処理では、姿勢検出部8の出力に基づいて、撮像素子2bの姿勢が上下方向に反転し、かつ、表示部22がカメラ本体21に対して展開しているか否かの判定がなされる。撮像装置1が第2の状態ではないと判定されたとき、すなわち、撮像素子2bの姿勢が上下方向に反転していない、又は、表示部22がカメラ本体21に対して展開していないと判定されたとき、処理がステップS104に進む。   In step S103, the control unit 10 determines whether the state of the imaging device 1 is the second state. That is, in this process, based on the output of the posture detection unit 8, it is determined whether the posture of the image sensor 2 b is inverted in the vertical direction and the display unit 22 is unfolded with respect to the camera body 21. The When it is determined that the imaging device 1 is not in the second state, that is, it is determined that the orientation of the imaging device 2b is not inverted in the vertical direction, or the display unit 22 is not expanded with respect to the camera body 21. If so, the process proceeds to step S104.

ステップS104において、制御部10は、撮像素子2bにより取得されたスルー画を表示パネル6に表示させる。このとき、スルー画は、第1の表示状態で表示される。   In step S104, the control unit 10 causes the display panel 6 to display the through image acquired by the image sensor 2b. At this time, the through image is displayed in the first display state.

ステップS105において、制御部10は、アイコンを表示パネル6に通常のレイアウトで表示する。通常のレイアウトでは、例えば、撮影モード等現在のモードの表示又は各種機能の通知のアイコン等がスルー画の表示方向と同じ向きに表示される。   In step S105, the control unit 10 displays the icons on the display panel 6 in a normal layout. In the normal layout, for example, a current mode display such as a shooting mode or notification icons for various functions are displayed in the same direction as the through image display direction.

ステップS106において、制御部10は、前面SW26へのユーザによる操作を検出したか否かを判定する。ステップS106において、前面SW26がユーザによる操作を検出しなかったと判定されたとき、処理がステップS108に進む。ステップS106において、前面SW26がユーザによる操作を検出したと判定されたとき、処理がステップS107に進む。   In step S106, the control unit 10 determines whether or not an operation by the user on the front surface SW 26 is detected. If it is determined in step S106 that front SW 26 has not detected an operation by the user, the process proceeds to step S108. If it is determined in step S106 that front SW 26 has detected an operation by the user, the process proceeds to step S107.

ステップS107において、制御部10は、前面SW26のユーザによる操作に従ってパラメータを変更する。その後、処理がステップS108に進む。   In step S <b> 107, the control unit 10 changes the parameter in accordance with an operation by the user on the front surface SW 26. Thereafter, the process proceeds to step S108.

ステップS108において、制御部10は、レリーズSW23が操作されたか否かを判定する。ステップS108において、レリーズSW23が操作されなかったと判定されたとき、処理がステップS101に戻る。ステップS108において、レリーズSW23が操作されたと判定されたとき、処理がステップS109に進む。   In step S108, the control unit 10 determines whether or not the release SW 23 has been operated. When it is determined in step S108 that the release SW 23 has not been operated, the process returns to step S101. If it is determined in step S108 that the release SW 23 has been operated, the process proceeds to step S109.

ステップS109において、制御部10は、撮影動作を行い、画像データを撮像素子2bに取得させる。取得された画像には、一般的な画像処理が施され、処理後の画像は記録部5に記録される。その後、処理がステップS101に戻る。   In step S109, the control unit 10 performs a shooting operation and causes the image sensor 2b to acquire image data. The acquired image is subjected to general image processing, and the processed image is recorded in the recording unit 5. Thereafter, the process returns to step S101.

ステップS103において、撮像装置1の状態が第2の状態であると判定されたとき、すなわち、表示部22がカメラ本体21に対して展開し、かつ、撮像素子2bの姿勢が上下方向に反転していると判定されたとき、処理がステップS110に進む。   In step S103, when it is determined that the state of the image pickup apparatus 1 is the second state, that is, the display unit 22 is unfolded with respect to the camera body 21, and the posture of the image pickup element 2b is inverted in the vertical direction. When it is determined that there is, the process proceeds to step S110.

ステップS110において、制御部10は、取得したスルー画を第2の表示状態で表示パネル6に表示させる。   In step S110, the control unit 10 causes the display panel 6 to display the acquired through image in the second display state.

ステップS111において、制御部10は、アイコンを表示パネル6に反転させたレイアウトで表示する。反転させたレイアウトでは、例えば、各種機能の通知のアイコンと共に、パラメータ設定のアイコン6aと、肌チェックモードのアイコン6bとが、スルー画の向きと同じ向きに表示されている。   In step S111, the control unit 10 displays the icons on the display panel 6 in a reversed layout. In the reversed layout, for example, a parameter setting icon 6a and a skin check mode icon 6b are displayed in the same direction as the through image along with notification icons for various functions.

ステップS112において、制御部10は、表示パネル6に表示されている肌チェックモードのアイコン6bがタッチされたか否か、すなわち、肌チェックモードが選択されたか否かを判定する。表示パネル6に表示されている肌チェックモードのアイコン6bがタッチされなかったと判定されたとき、処理がステップS113に進む。   In step S112, the control unit 10 determines whether or not the skin check mode icon 6b displayed on the display panel 6 is touched, that is, whether or not the skin check mode is selected. When it is determined that the skin check mode icon 6b displayed on the display panel 6 has not been touched, the process proceeds to step S113.

ステップS113において、制御部10は、自分撮影モードの設定を行う。自分撮影モードの設定は、第2の表示状態において、ユーザがユーザ自身を撮影する際に用いられる設定である。この設定は、例えば、パラメータ設定がアイコン6aの操作に基づいて行わ、レリーズ操作が前面SW26を用いて行われる設定である。   In step S113, the control unit 10 sets the self-photographing mode. The setting of the self-photographing mode is a setting used when the user photographs the user himself / herself in the second display state. This setting is, for example, a setting in which the parameter setting is performed based on the operation of the icon 6a and the release operation is performed using the front surface SW 26.

ステップS114において、制御部10は、前面SW26への押圧を検出したか否か、すなわち、レリーズ操作を検出したか否かを判定する。前面SW26への押圧が検出されなかったと判定されたとき、処理がステップS101に戻る。前面SW26への押圧が検出されたと判定されたとき、処理がステップS115に進む。   In step S114, the control unit 10 determines whether or not a press on the front surface SW 26 is detected, that is, whether or not a release operation is detected. When it is determined that the front surface SW 26 is not pressed, the process returns to step S101. When it is determined that a press on front SW 26 has been detected, the process proceeds to step S115.

ステップS115において、制御部10は、撮像部2に撮影動作を行い、画像データを撮像素子2bに取得させる。取得された画像には、一般的な画像処理が施され、処理後の画像は記録部5に記録される。その後、処理がステップS101に戻る。   In step S115, the control unit 10 performs a shooting operation on the imaging unit 2, and causes the imaging device 2b to acquire image data. The acquired image is subjected to general image processing, and the processed image is recorded in the recording unit 5. Thereafter, the process returns to step S101.

ステップS112において、肌チェックモードのアイコン6bがタッチされたと判定されたとき、処理がステップS116に進む。   If it is determined in step S112 that the skin check mode icon 6b has been touched, the process proceeds to step S116.

ステップS116において、制御部10は、肌チェックモード処理を行う。その後、処理がステップS101に戻る。   In step S116, the control unit 10 performs a skin check mode process. Thereafter, the process returns to step S101.

本実施形態に係る肌チェックモード処理について説明する。図7は、本実施形態に係る肌チェックモード処理の動作を示すフローチャートである。ステップS201において、制御部10は、肌チェックモード処理に係る表示を行う。図8は、肌チェックモード処理における表示の一例を示す図である。制御部10は、図8に示すように、表示パネル6に表示されたスルー画上に顔ガイド枠6cを表示させる。この顔ガイド枠6cは、表示エリア、すなわち撮像エリアの大部分を示すように十分に大きく設けられる。ユーザは、顔ガイド枠6cに被写体である自身の顔を合わせるように撮影領域を調整する。このように、顔ガイド枠6cは、顔ガイド枠6cと顔とが重なるようにユーザに撮影させることを補助する。撮像エリアの大部分を使って顔を撮影することで、詳細な肌状態の判定を実行することができる。   The skin check mode process according to the present embodiment will be described. FIG. 7 is a flowchart showing the operation of the skin check mode process according to the present embodiment. In step S201, the control unit 10 performs display related to the skin check mode process. FIG. 8 is a diagram illustrating an example of display in the skin check mode process. As illustrated in FIG. 8, the control unit 10 displays the face guide frame 6 c on the through image displayed on the display panel 6. The face guide frame 6c is provided sufficiently large so as to indicate the most part of the display area, that is, the imaging area. The user adjusts the shooting area so that the face of the subject is aligned with the face guide frame 6c. In this way, the face guide frame 6c assists the user in photographing so that the face guide frame 6c and the face overlap. A detailed skin condition determination can be performed by photographing a face using most of the imaging area.

また、ステップS201において、制御部10は、図8に示すように、肌画像サンプル6eと、戻るアイコン6dとを表示パネル6に表示させる。肌画像サンプル6eは、画像DB5aに記録されている肌画像サンプルデータに基づく画像である。本実施形態では、肌画像サンプル6eは、赤ちゃん並みの肌状態を表す。戻るアイコン6dは、肌チェックモード処理を終了させて処理をカメラ制御に戻させる指示を入力するためのアイコンである。   In step S201, the control unit 10 displays the skin image sample 6e and the return icon 6d on the display panel 6, as shown in FIG. The skin image sample 6e is an image based on the skin image sample data recorded in the image DB 5a. In the present embodiment, the skin image sample 6e represents a skin condition similar to that of a baby. The return icon 6d is an icon for inputting an instruction to end the skin check mode process and return the process to camera control.

ステップS202において、制御部10は、スルー画から顔の特徴、例えば、目又は口等の特徴に基づいて顔を検出する。   In step S202, the control unit 10 detects a face from a through image based on a facial feature, for example, a feature such as an eye or a mouth.

ステップS203において、制御部10は、顔ガイド枠6cの大きさに合った顔が検出されたか否かを判定する。顔ガイド枠6cの大きさに合った顔が検出されたと判定されたとき、処理がステップS205に進む。顔ガイド枠6cの大きさに合った顔が検出されなかったと判定されたとき、処理がステップS204に進む。   In step S203, the control unit 10 determines whether or not a face matching the size of the face guide frame 6c has been detected. When it is determined that a face that matches the size of the face guide frame 6c is detected, the process proceeds to step S205. When it is determined that a face matching the size of the face guide frame 6c has not been detected, the process proceeds to step S204.

ステップS204において、制御部10は、戻るアイコン6dがタッチされたか否かを判定する。戻るアイコン6dがタッチされなかったと判定されたとき、処理がステップS201に戻る。戻るアイコン6dがタッチされたと判定されたとき、肌チェックモード処理が終了する。   In step S204, the control unit 10 determines whether or not the return icon 6d has been touched. When it is determined that the return icon 6d has not been touched, the process returns to step S201. When it is determined that the return icon 6d has been touched, the skin check mode process ends.

ステップS205において、制御部10は、顔パーツを検出する。ここで、検出の対象となる顔パーツは、例えば、額、瞼、目尻、鼻、鼻翼、頬等である。検出された顔パーツは、図8に破線で示す、額パーツ6ca、右瞼パーツ6cba、左瞼パーツ6cbb、右目尻パーツ6cca、左目尻パーツ6ccb、鼻パーツ6cd、右鼻翼パーツ6cea、左鼻翼パーツ6ceb、右頬パーツ6cfa、及び、左頬パーツ6cfbのように、表示パネル6に表示される。本実施形態では、上記すべての顔パーツが顔から検出されたものとする。顔パーツが表示されることで、ユーザは、分析対象となった顔パーツを把握することができる。   In step S205, the control unit 10 detects a face part. Here, the face parts to be detected are, for example, the forehead, the eyelids, the corners of the eyes, the nose, the nose wings, and the cheeks. The detected face parts are shown by broken lines in FIG. 8, forehead part 6ca, starboard part 6cba, port part 6cbb, right eye part 6cca, left eye part 6ccb, nose part 6cd, right nose wing part 6cea, left nose wing part 6ceb, right cheek part 6cfa, and left cheek part 6cfb are displayed on the display panel 6. In the present embodiment, it is assumed that all the face parts are detected from the face. By displaying the facial parts, the user can grasp the facial parts that are the analysis target.

ステップS206乃至ステップS211において、検出された各顔パーツについて、フォーカス位置を変更させながら撮影を行い、得られた画像に基づいて肌状態の判定を行う。フォーカス位置の設定について説明する。図9は、被写体である顔を横から見た図とレンズ2aの位置とを模式的に示す図であり、顔パーツの奥行について説明するための図である。顔パーツは、鼻の奥行に対する額の奥行のように、それぞれ奥行が異なる。レンズ2aのフォーカス位置がある顔パーツに合っているとき、他の顔パーツにフォーカス位置が合わないことがある。撮像装置1は、すべての顔パーツにフォーカス位置を合わせるために、顔パーツの撮影ごとにフォーカス位置を変更させる。すなわち、撮像装置1は、例えば、まず、鼻パーツ6cdに合焦するようにレンズ2aを設定して撮影を行い、次に、額パーツ6ca、右鼻翼パーツ6cea、左鼻翼パーツ6cebに合焦するようにレンズ2aを設定して撮影を行い、続いて、右瞼パーツ6cba、左瞼パーツ6cbbに合焦するようにレンズ2aを設定して撮影を行い、最後に、右目尻パーツ6cca、左目尻パーツ6ccb、右頬パーツ6cfa及び左頬パーツ6cfbに合焦するようにレンズ2aを設定して撮影を行う。   In steps S206 to S211, each detected face part is photographed while changing the focus position, and the skin condition is determined based on the obtained image. The focus position setting will be described. FIG. 9 is a diagram schematically showing a view of the face as the subject from the side and the position of the lens 2a, and is a diagram for explaining the depth of the face part. Each face part has a different depth, such as the depth of the forehead relative to the depth of the nose. When the focus position of the lens 2a matches a face part, the focus position may not match another face part. The imaging device 1 changes the focus position every time the face part is photographed in order to adjust the focus position to all the face parts. That is, for example, the imaging device 1 first sets the lens 2a so as to focus on the nose part 6cd, and then performs imaging, and then focuses on the forehead part 6ca, the right nose wing part 6cea, and the left nose wing part 6ceb. In this way, the lens 2a is set to shoot, and then the lens 2a is set so as to focus on the starboard part 6cba and port part 6cbb. Finally, the right eye corner part 6cca and left eye butt are shot. The lens 2a is set so as to focus on the part 6ccb, the right cheek part 6cfa, and the left cheek part 6cfb, and shooting is performed.

ステップS206において、制御部10は、顔判定部10aにより検出された顔パーツのうち、撮影及び肌状態の判定が未だ行われていない顔パーツのうちの何れかにフォーカスが合うようにフォーカス位置の設定を更新する。   In step S206, the control unit 10 adjusts the focus position so that one of the face parts detected by the face determination unit 10a has not yet been photographed and the skin state has been determined. Update settings.

ステップS207において、制御部10は、フォーカス位置の設定に応じて、フォーカス変更部3にフォーカス位置を変更させる。   In step S207, the control unit 10 causes the focus changing unit 3 to change the focus position in accordance with the setting of the focus position.

ステップS208において、制御部10は、撮影動作を行い、画像データを撮像素子2bに取得させる。この撮影動作で得られた画像データは、ある顔パーツにフォーカスが合っている画像のデータである。   In step S208, the control unit 10 performs a shooting operation and causes the image sensor 2b to acquire image data. The image data obtained by this photographing operation is data of an image in which a certain face part is in focus.

ステップS209において、制御部10は、撮像素子2bにより取得された画像データから、フォーカス位置の設定に対応する顔パーツの部分を抽出する。すなわち、得られた画像のうちフォーカスが合っている顔パーツについて、当該画像から顔パーツの部分の画像を抽出する。   In step S209, the control unit 10 extracts a face part corresponding to the setting of the focus position from the image data acquired by the image sensor 2b. That is, for the face part in focus in the obtained image, the image of the part of the face part is extracted from the image.

ステップS210において、制御部10は、抽出された画像に基づいて、当該顔パーツの肌状態を判定する。すなわち、この処理では、抽出された顔パーツの画像と、サンプルデータの肌画像とが比較され、肌状態が判定される。ここで、比較に用いられる肌画像サンプルデータは、表示パネル6に肌画像サンプル6eとして表示された赤ちゃん並みの肌状態を表すものである。この判定は、抽出された顔パーツの特徴、例えば、色又はコントラスト等と、肌画像サンプルデータの特徴とを比較して、これら特徴の一致の程度に応じて行われる。   In step S210, the control unit 10 determines the skin state of the facial part based on the extracted image. That is, in this process, the extracted face part image is compared with the skin image of the sample data, and the skin state is determined. Here, the skin image sample data used for comparison represents a baby-like skin state displayed on the display panel 6 as the skin image sample 6e. This determination is made according to the degree of matching of the features of the extracted facial parts, for example, the color or contrast, and the features of the skin image sample data.

ステップS211において、制御部10は、顔判定部10aにより検出された全ての顔パーツについて肌状態の判定が終了しているか否かを判定する。ステップS211において、全ての顔パーツについて肌状態の判定が終了していると判定されたとき、処理がステップS212に進む。   In step S211, the control unit 10 determines whether or not the skin state determination has been completed for all the face parts detected by the face determination unit 10a. In step S211, when it is determined that the determination of the skin state has been completed for all the face parts, the process proceeds to step S212.

ステップS211において、全ての顔パーツの顔パーツ判定が終了していないと判定されたとき、処理がステップS206に戻る。すなわち、肌チェックモード処理において、顔判定部10aにより検出された全ての顔パーツに対して顔パーツ判定が行われるように、ステップS206及びステップS211の処理が繰り返される。   In step S211, when it is determined that the face part determination for all the face parts is not completed, the process returns to step S206. That is, in the skin check mode process, the processes in step S206 and step S211 are repeated so that face part determination is performed on all face parts detected by the face determination unit 10a.

ステップS212において、制御部10は、すべての顔パーツの顔パーツ判定の結果を表示パネル6に表示する。   In step S <b> 212, the control unit 10 displays the face part determination results for all face parts on the display panel 6.

判定結果の表示の一例について説明する。図10は、顔パーツの肌状態の判定結果の表示の一例を示す。本実施形態では、肌状態の判定において、「赤ちゃん並み」の画像サンプルデータとの一致の程度が高いと判定された顔パーツに対して、特徴的な表示がなされる。例えば、図10に示す右頬パーツ6cfaは、塗り潰され、かつ、「ここは赤ちゃん並み」というテキスト表示6fが付加されている。一方、塗り潰されていない顔パーツは、赤ちゃん並みの画像サンプルとの色又はコントラスト等の一致の程度が高くなかったと判定された顔パーツである。なお、「赤ちゃん並み」であった顔パーツに、例えば、「良好」という表示を重ねて表示しても良い。   An example of the display of the determination result will be described. FIG. 10 shows an example of the display of the determination result of the skin condition of the facial part. In the present embodiment, in the determination of the skin condition, a characteristic display is performed on the face part determined to have a high degree of matching with the “baby-like” image sample data. For example, the right cheek part 6cfa shown in FIG. 10 is filled with a text display 6f “This is like a baby”. On the other hand, unfilled face parts are face parts that have been determined not to have a high degree of matching with a baby-like image sample, such as color or contrast. For example, a display of “good” may be superimposed on the face part that is “baby-like”.

ステップS213において、制御部10は、肌チェックモード処理の終了に対応する操作が行われたか否かを判定する。すなわち、この処理では、戻るアイコン6dがタッチされたか、又は、撮影されている顔Aaが変化したか否かが判定される。顔Aaの変化には、例えば、顔判定部10aにより、顔ガイド枠6cの大きさに合った顔が検出されなくなる変化を含む。   In step S213, the control unit 10 determines whether an operation corresponding to the end of the skin check mode process has been performed. That is, in this process, it is determined whether the return icon 6d has been touched or the photographed face Aa has changed. The change in the face Aa includes, for example, a change in which the face determination unit 10a does not detect a face that matches the size of the face guide frame 6c.

ステップS213において、肌チェックモード処理の終了に対応する操作が行われなかったと判定されたとき、処理がステップS212に戻る。   When it is determined in step S213 that an operation corresponding to the end of the skin check mode process has not been performed, the process returns to step S212.

ステップS213において、肌チェックモード処理の終了に対応する操作が行われたと判定されたとき、処理がステップS214に進む。ステップS214において、制御部10は、顔ガイド枠6c及び、顔パーツ判定の結果の表示をクリアする。その後、肌チェックモード処理が終了する。   If it is determined in step S213 that an operation corresponding to the end of the skin check mode process has been performed, the process proceeds to step S214. In step S214, the control unit 10 clears the display of the face guide frame 6c and the result of face part determination. Thereafter, the skin check mode process ends.

以上、本実施形態に係る撮像装置1は、顔パーツごとにフォーカス位置を合わせて撮影することで、奥行が異なる顔パーツの肌状態を分析するための複数の画像を順次に取得することができる。ユーザは、得られた複数の画像に基づいて行われる肌状態の判定結果を容易に取得することができる。   As described above, the imaging apparatus 1 according to the present embodiment can sequentially acquire a plurality of images for analyzing the skin state of a facial part having a different depth by photographing with the focus position adjusted for each facial part. . The user can easily obtain the determination result of the skin condition performed based on the obtained plurality of images.

また、本実施形態では、被写体の顔パーツを狙ってフォーカス位置を変化させながら撮影を行ったが、焦点距離を近方から遠方まで変化させながら順次に撮影を複数回行っても、複数の分析用の画像を取得することができる。各々の顔パーツの奥行を算出してそこにフォーカス位置を合わせる動作が省略されれば、カメラ制御に係る処理が軽減される。   In this embodiment, shooting is performed while changing the focus position while aiming at the face part of the subject. However, even if shooting is performed multiple times sequentially while changing the focal length from near to far, multiple analyzes are performed. Images can be acquired. If the operation of calculating the depth of each face part and adjusting the focus position is omitted, the processing related to camera control is reduced.

また、分析対象は、顔Aaの肌状態に限らない。奥行を有する対象物について撮像を行い、得られた画像に基づいて分析を行うときに、本実施形態に係る技術を用いることで分析用の画像が容易に取得され得る。このように、本実施形態の撮像装置1は、顔の肌状態を分析するに限らず、他の用途にも適用され得る。つまり、この撮像装置1は、カメラを含む撮像装置以外に観察装置、検査装置に適応が可能で、スマートフォンなどのアプリにも応用可能である。つまり、この撮像装置1では、観察対象物の奥行き方向のピント位置変化や、対象物の部位ごとの特徴判定というポイントが重要である。したがって、画像検出部と画像検出で分類された画像の部位検出部と、各部位ごとに最適ピント制御を行うピント制御部と、分類された画像部位ごとに得られたピント良好画像ごとに、判定可能な判定用画像のデータベースがあれば、本発明のカバー範囲となる。なお、画像比較は、単純に重ね合わせるのみならず、そこで一致度の正確性を向上させるために、露出やホワイトバランスや位置などを調整できるようにする。また、比較結果は、必ずしも、絶対値でなくともよく、相対的な数値でも良い。   Further, the analysis target is not limited to the skin state of the face Aa. When an object having a depth is imaged and analysis is performed based on the obtained image, an image for analysis can be easily acquired by using the technique according to the present embodiment. Thus, the imaging device 1 of the present embodiment is not limited to analyzing the skin condition of the face, but can be applied to other uses. That is, the imaging apparatus 1 can be applied to an observation apparatus and an inspection apparatus other than an imaging apparatus including a camera, and can also be applied to an application such as a smartphone. That is, in this imaging apparatus 1, the points of focus position change in the depth direction of the observation target and feature determination for each part of the target are important. Therefore, the image detection unit, the part detection unit of the image classified by image detection, the focus control unit that performs the optimum focus control for each part, and the good focus image obtained for each classified image part are determined. If there is a database of possible determination images, this is the scope of the present invention. Note that the image comparison is not limited to simple overlaying, but exposure, white balance, position, etc. can be adjusted in order to improve the accuracy of coincidence. The comparison result does not necessarily have to be an absolute value and may be a relative numerical value.

また、レンズ2aにズームレンズを設ければ、本実施形態で取得された分析用の画像データと較べてさらにミクロな領域を分析するための画像データを取得することができる。   Further, if the lens 2a is provided with a zoom lens, it is possible to acquire image data for analyzing a more microscopic area than the image data for analysis acquired in the present embodiment.

また、レンズ2aに多眼レンズを設けて、画角が異なる分析用の画像データを取得しても良い。   Further, a multi-lens lens may be provided in the lens 2a to acquire image data for analysis having a different angle of view.

[第2実施形態]
本実施形態では、顔を検出するための画面と、この顔の分析結果を表示するための画面とが表示パネル6の別の領域に表示される。なお、本実施形態に係る構成及び動作の説明において、第1実施形態の構成と同一となる部分については、その説明を省略する。
[Second Embodiment]
In the present embodiment, a screen for detecting a face and a screen for displaying the analysis result of the face are displayed in different areas of the display panel 6. In the description of the configuration and operation according to the present embodiment, the description of the same parts as those of the first embodiment is omitted.

本実施形態に係る撮像装置1の動作について説明する。図11は、本実施形態に係る肌チェックモード処理の動作を示すフローチャートである。ステップS301において、制御部10は、本実施形態の肌チェックモード処理に係る表示を行う。図12は、本実施形態に係る表示の一例を示す。図12に示すように、制御部10は、表示パネル6に、スルー画画面6gと、肌状態の判定画面6hとを表示させる。判定画面6hには、例えばスルー画の顔画像が表示され、その顔画像上に判定結果が重畳表示される。判定画面6hに表示される顔画像は、スルー画でなく、何れかの時点で撮影された静止画でもよい。また、ステップS301において、制御部10は、表示パネル6に戻るアイコン6dを表示させる。また、制御部10は、スルー画画面6gに顔ガイド枠6cを表示させる。   An operation of the imaging apparatus 1 according to the present embodiment will be described. FIG. 11 is a flowchart showing the operation of the skin check mode process according to the present embodiment. In step S301, the control unit 10 performs display related to the skin check mode process of the present embodiment. FIG. 12 shows an example of display according to the present embodiment. As illustrated in FIG. 12, the control unit 10 causes the display panel 6 to display a through image screen 6g and a skin condition determination screen 6h. For example, a face image of a through image is displayed on the determination screen 6h, and a determination result is superimposed on the face image. The face image displayed on the determination screen 6h may not be a through image, but may be a still image taken at any time. In step S <b> 301, the control unit 10 displays a return icon 6 d on the display panel 6. In addition, the control unit 10 displays the face guide frame 6c on the through image screen 6g.

ステップS302において、制御部10は、顔の特徴、例えば、目又は口等の特徴に基づいてスルー画から顔を検出する。   In step S <b> 302, the control unit 10 detects a face from a through image based on a facial feature, for example, a feature such as an eye or a mouth.

ステップS303において、制御部10は、顔ガイド枠6cの大きさに合った顔が検出されたか否かを判定する。顔ガイド枠6cの大きさに合った顔が検出されたと判定されたとき、処理がステップS305に進む。顔ガイド枠6cの大きさに合った顔が検出されなかったと判定されたとき、処理がステップS304に進む。   In step S303, the control unit 10 determines whether or not a face matching the size of the face guide frame 6c has been detected. When it is determined that a face that matches the size of the face guide frame 6c is detected, the process proceeds to step S305. When it is determined that a face matching the size of the face guide frame 6c has not been detected, the process proceeds to step S304.

ステップS304において、制御部10は、戻るアイコン6dがタッチされたか否かを判定する。戻るアイコン6dがタッチされなかったと判定されたとき、処理がステップS301に戻る。戻るアイコン6dがタッチされたと判定されたとき、肌チェックモード処理が終了する。   In step S304, the control unit 10 determines whether or not the return icon 6d has been touched. When it is determined that the return icon 6d has not been touched, the process returns to step S301. When it is determined that the return icon 6d has been touched, the skin check mode process ends.

ステップS305において、制御部10の顔判定部10aは、顔パーツを検出する。ステップS306において、制御部10は、顔判定部10aにより検出された顔パーツのうち、顔パーツ判定が未だ行われていない1つの顔パーツにフォーカスが合うようにフォーカス位置の設定を更新する。ステップS307において、制御部10は、フォーカス位置の設定に応じて、フォーカス変更部3にフォーカス位置を変更させる。   In step S305, the face determination unit 10a of the control unit 10 detects a face part. In step S306, the control unit 10 updates the setting of the focus position so that one of the face parts detected by the face determination unit 10a has not been subjected to face part determination yet is in focus. In step S307, the control unit 10 causes the focus changing unit 3 to change the focus position according to the setting of the focus position.

ステップS308において、制御部10は、撮影動作を行い、画像データを撮像素子2bに取得させる。この撮影によりある顔パーツにフォーカスが合っている画像データが取得される。ステップS309において、制御部10は、撮像素子2bにより取得された画像データから、フォーカス位置の設定に対応する顔パーツの部分を抽出する。ステップS310において、制御部10は、顔パーツ判定を行う。   In step S308, the control unit 10 performs a shooting operation and causes the image sensor 2b to acquire image data. Image data in which a certain face part is focused is acquired by this photographing. In step S309, the control unit 10 extracts a part of the face part corresponding to the setting of the focus position from the image data acquired by the image sensor 2b. In step S310, the control unit 10 performs face part determination.

ステップS311において、パターン判定部10cにより抽出された顔パーツの画像を記録部5に記録する。抽出され記録されたこの顔パーツの画像のデータを肌拡大画像データと称する。   In step S311, the face part image extracted by the pattern determination unit 10c is recorded in the recording unit 5. The image data of the extracted facial parts is referred to as skin enlarged image data.

ステップS312において、制御部10は、図12に示すように、肌拡大画像データに基づく肌拡大画像6iを表示パネル6に表示させる。なお、肌拡大画像6iと、肌画像サンプルとは並べて表示されても良い。   In step S312, the control unit 10 causes the display panel 6 to display an enlarged skin image 6i based on the enlarged skin image data, as shown in FIG. Note that the enlarged skin image 6i and the skin image sample may be displayed side by side.

ステップS313において、制御部10は、肌状態の判定が終了した顔パーツについて判定の結果を判定画面6hに表示させる。顔パーツ判定の結果を合成した表示の一例について図12を参照して説明する。本実施形態では、肌状態が「赤ちゃん並み」と判定された顔パーツについて、判定画面6h上の当該顔パーツが塗りつぶされる。図12は、左瞼パーツ6cbb、左目尻パーツ6ccb、左頬パーツ6cfb、左鼻翼パーツ6ceb、鼻パーツ6cd、右鼻翼パーツ6cea及び右頬パーツ6cfaが「赤ちゃん並み」の肌状態と判定されて塗り潰されている状態を表している。   In step S313, the control unit 10 causes the determination screen 6h to display the determination result for the face part for which the determination of the skin condition has been completed. An example of a display in which the results of face part determination are combined will be described with reference to FIG. In the present embodiment, the face part on the determination screen 6h is painted out for the face part determined to have the skin condition of “Baby”. FIG. 12 shows that the port part 6cbb, the left eye corner part 6ccb, the left cheek part 6cfb, the left nose wing part 6ceb, the nose part 6cd, the right nose wing part 6cea and the right cheek part 6cfa are judged to be “baby-like” and are filled. It represents the state that is.

ステップS314において、制御部10は、検出された全ての顔パーツについて肌状態の判定が終了しているか否かを判定する。全ての顔パーツについて肌状態の判定が終了していないと判定されたとき、処理がステップS306に戻る。すなわち、顔パーツに関する肌状態の判定が、ステップS306乃至ステップS313において、次々と行われ、判定画面6h上に表示される判定結果は次々と増えていく。ステップS314において、全ての顔パーツについて肌状態の判定が終了していると判定されたとき、処理がステップS315に進む。   In step S314, the control unit 10 determines whether or not the determination of the skin state has been completed for all detected face parts. When it is determined that the determination of the skin condition has not been completed for all the face parts, the process returns to step S306. That is, determination of the skin state regarding the face part is performed one after another in steps S306 to S313, and the determination results displayed on the determination screen 6h increase one after another. In step S314, when it is determined that the determination of the skin state has been completed for all the face parts, the process proceeds to step S315.

ステップS315において、制御部10は、肌チェックモード処理の終了に対応する操作が検出されるまで待機する。すなわち、戻るアイコン6dへのタッチ、又は、顔Aaの変化が検出されるまで待機する。その後、処理がステップS316に進む。   In step S315, the control unit 10 stands by until an operation corresponding to the end of the skin check mode process is detected. That is, it waits until a touch on the return icon 6d or a change in the face Aa is detected. Thereafter, the process proceeds to step S316.

ステップS316において、顔パーツ判定結果の表示の終了に対応する操作が行われたと判定されたとき、制御部10は、顔ガイド枠6c及び、顔パーツ判定の結果の表示をクリアする。その後、肌チェックモード処理が終了する。   When it is determined in step S316 that an operation corresponding to the end of the display of the face part determination result has been performed, the control unit 10 clears the display of the face guide frame 6c and the result of the face part determination. Thereafter, the skin check mode process ends.

以上、本実施形態では、顔を検出するためのスルー画画面6gと、この顔の分析結果を表示するための判定画面6hとが別の領域に表示される。ユーザは、顔パーツ判定の結果を視認しながら各操作を行うことができる。また、ユーザは、顔パーツが段々に塗り潰されていく過程を見ながら、「赤ちゃん並み」の顔パーツを把握することができる。   As described above, in the present embodiment, the through image screen 6g for detecting the face and the determination screen 6h for displaying the analysis result of the face are displayed in different areas. The user can perform each operation while visually recognizing the face part determination result. Also, the user can grasp the “baby-like” facial parts while watching the process of gradually painting the facial parts.

[第3実施形態]
本実施形態では、表示パネル6に表示された顔ガイド枠6cの位置及び大きさを変更可能である。なお、本実施形態に係る構成及び動作の説明において、第1実施形態の構成及び動作と同一となる部分については、その説明を省略する。
[Third Embodiment]
In the present embodiment, the position and size of the face guide frame 6c displayed on the display panel 6 can be changed. In the description of the configuration and operation according to the present embodiment, the description of the same parts as the configuration and operation of the first embodiment is omitted.

本実施形態に係る撮像装置1の動作について説明する。図13は、本実施形態に係る肌チェックモード処理の動作を示すフローチャートである。   An operation of the imaging apparatus 1 according to the present embodiment will be described. FIG. 13 is a flowchart showing the operation of the skin check mode process according to the present embodiment.

ステップS401において、制御部10は、表示パネル6に表示されたスルー画上に顔ガイド枠6cを表示させる。   In step S <b> 401, the control unit 10 displays the face guide frame 6 c on the through image displayed on the display panel 6.

ステップS402において、制御部10は、顔ガイド枠6cの位置を移動するための操作が行われたか否かを判定する。ステップS402において、顔パーツの大きさを変更させる操作が行われなかったと判定されたとき、処理がステップS404に進む。   In step S402, the control unit 10 determines whether an operation for moving the position of the face guide frame 6c has been performed. If it is determined in step S402 that an operation for changing the size of the face part has not been performed, the process proceeds to step S404.

顔パーツの大きさを変更させる操作が行われたと判定されたとき、制御部10は、ステップS403において、この変更に基づいて、顔ガイド枠6cの位置及び大きさを変更する。その後、処理がステップS404に進む。   When it is determined that an operation for changing the size of the face part has been performed, the control unit 10 changes the position and size of the face guide frame 6c based on the change in step S403. Thereafter, the process proceeds to step S404.

顔ガイド枠6cの変更について説明する。図14は、顔ガイド枠6cの移動操作の一例を示す図である。本実施形態に係る撮像装置1は、タッチパネル4におけるユーザの手Abによるタッチ操作又はスライド操作を検出すると、タッチ操作又はスライド操作に応じて、顔ガイド枠6cの位置を移動させる。   The change of the face guide frame 6c will be described. FIG. 14 is a diagram illustrating an example of the movement operation of the face guide frame 6c. When detecting the touch operation or the slide operation by the user's hand Ab on the touch panel 4, the imaging apparatus 1 according to the present embodiment moves the position of the face guide frame 6 c according to the touch operation or the slide operation.

また、本実施形態では、顔パーツを検出すべき検出エリアの位置をユーザが指定することができる。図15は、顔パーツの検出エリアの位置及び大きさの変更操作の一例を示す図である。撮像装置1は、例えば、タッチパネル4におけるユーザによるスライド操作等によって、顔ガイド枠6c内において顔パーツを検出すべきエリアの位置を変更したり、このエリアの大きさを拡大又は縮小させることができる。   In the present embodiment, the user can specify the position of the detection area where the face part is to be detected. FIG. 15 is a diagram illustrating an example of an operation for changing the position and size of the detection area of the face part. The imaging apparatus 1 can change the position of the area where the face part is to be detected in the face guide frame 6c, or can enlarge or reduce the size of the area, for example, by a slide operation by the user on the touch panel 4. .

顔ガイド枠6c及び顔パーツの位置又は大きさの変更は、十字キー、スライドバー、又は釦等の操作によって行われるように構成されても良い。   The change of the position or size of the face guide frame 6c and the face part may be configured to be performed by an operation of a cross key, a slide bar, a button, or the like.

ステップS404において、制御部10は、スルー画から顔を検出する。ステップS405において、制御部10は、顔ガイド枠6cの大きさに合った顔が検出されたか否かを判定する。ステップS405において、顔ガイド枠6cの大きさに合った顔が検出されなかったと判定されたとき、処理がステップS406に進む。制御部10は、ステップS406において、戻るアイコン6dがタッチされたか否かを判定する。ステップS406において、戻るアイコン6dがタッチされなかったと判定されたとき、処理がステップS401に戻る。ステップS406において、戻るアイコン6dがタッチされたと判定されたとき、肌チェックモード処理が終了する。一方、ステップS405において、顔ガイド枠6cの大きさに合った顔が検出されたと判定されたとき、処理がステップS407に進む。ステップS407において、制御部10の顔判定部10aは、顔パーツを検出する。   In step S404, the control unit 10 detects a face from the through image. In step S405, the control unit 10 determines whether a face matching the size of the face guide frame 6c has been detected. If it is determined in step S405 that no face that matches the size of the face guide frame 6c has been detected, the process proceeds to step S406. In step S406, the control unit 10 determines whether or not the return icon 6d has been touched. When it is determined in step S406 that the return icon 6d has not been touched, the process returns to step S401. If it is determined in step S406 that the return icon 6d has been touched, the skin check mode process ends. On the other hand, when it is determined in step S405 that a face matching the size of the face guide frame 6c has been detected, the process proceeds to step S407. In step S407, the face determination unit 10a of the control unit 10 detects a face part.

ステップS408において、制御部10は、顔判定部10aにより検出された顔パーツのうち1つの顔パーツにフォーカスが合うようにフォーカス位置の設定を更新する。その後、ステップS409において、制御部10は、フォーカス位置の設定に応じて、フォーカス変更部3にフォーカス位置を変更させる。   In step S408, the control unit 10 updates the focus position setting so that one of the face parts detected by the face determination unit 10a is in focus. Thereafter, in step S409, the control unit 10 causes the focus changing unit 3 to change the focus position in accordance with the setting of the focus position.

ステップS410において、制御部10は、撮像部2に撮影を実行させる。ステップS411において、制御部10は、取得された画像データから、フォーカス位置の設定に対応する顔パーツの部分を抽出する。ステップS412において、制御部10は、抽出された顔パーツについて、肌状態の判定を行う。   In step S410, the control unit 10 causes the imaging unit 2 to perform shooting. In step S411, the control unit 10 extracts a part of the face part corresponding to the focus position setting from the acquired image data. In step S412, the control unit 10 determines the skin condition of the extracted face part.

ステップS413において、制御部10は、検出された全ての顔パーツの肌状態の判定が終了しているか否かを判定する。ステップS413において、全ての顔パーツの顔パーツ判定が終了していないと判定されたとき、処理がステップS408に戻る。その後、顔パーツ判定が終了していない顔パーツに対して、ステップS408乃至ステップS413に係る処理を繰り返す。一方、ステップS413において、全ての顔パーツの顔パーツ判定が終了していると判定されたとき、処理がステップS414に進む。   In step S413, the control unit 10 determines whether the determination of the skin state of all the detected face parts has been completed. When it is determined in step S413 that the face part determination for all the face parts has not been completed, the process returns to step S408. Thereafter, the processes according to steps S408 to S413 are repeated for the face parts for which face part determination has not been completed. On the other hand, when it is determined in step S413 that the face part determination for all the face parts has been completed, the process proceeds to step S414.

ステップS414において、制御部10は、顔画像と、全ての顔パーツの顔パーツ判定の結果とを表示パネル6に表示する。ステップS415において、制御部10は、戻るアイコン6dがタッチされたか、又は、顔Aaが変化したか否かを判定する。ステップS415において、戻るアイコン6dがタッチされなかったと判定されたとき、及び、顔Aaが変化しなかったと判定されたとき、処理がステップS414に戻る。一方、ステップS415において、戻るアイコン6dがタッチされたとき、又は、顔Aaが変化したと判定されたとき、処理がステップS416に進む。   In step S414, the control unit 10 displays the face image and the result of face part determination for all the face parts on the display panel 6. In step S415, the control unit 10 determines whether the return icon 6d has been touched or whether the face Aa has changed. In step S415, when it is determined that the return icon 6d is not touched and when it is determined that the face Aa has not changed, the process returns to step S414. On the other hand, in step S415, when the return icon 6d is touched or when it is determined that the face Aa has changed, the process proceeds to step S416.

ステップS416において、制御部10は、顔ガイド枠6c及び、顔パーツ判定の結果の表示をクリアする。ステップS416の後、本実施形態に係る肌チェックモード処理が終了する。   In step S416, the control unit 10 clears the display of the face guide frame 6c and the result of face part determination. After step S416, the skin check mode process according to the present embodiment ends.

以上、本実施形態に係る撮像装置1では、タッチパネル4を操作して、表示パネル6に表示された顔ガイド枠6cの位置及び大きさを変更させることを特徴とする。この操作により、ユーザは、顔ガイド枠6cと、ユーザの顔Aaの位置とを合わせ易くなり、撮像装置1に顔パーツを検出させ易くなる。また、本実施形態では、顔パーツが検出されるべき領域がユーザによって指定され得る。その結果、顔パーツの検出が正確に行われ得る。   As described above, the imaging apparatus 1 according to the present embodiment is characterized in that the position and size of the face guide frame 6 c displayed on the display panel 6 are changed by operating the touch panel 4. By this operation, the user can easily align the face guide frame 6c with the position of the user's face Aa, and the imaging device 1 can easily detect the face parts. Further, in the present embodiment, the area where the face part should be detected can be designated by the user. As a result, face parts can be detected accurately.

なお、上述した実施形態における撮像装置1による各処理は、何れも実行させることができるプログラムとして記憶しても良い。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。   Each process performed by the imaging apparatus 1 in the above-described embodiment may be stored as a program that can be executed. This program is stored in a storage medium of an external storage device such as a memory card (ROM card, RAM card, etc.), magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. The above-described processing can be executed by reading the stored program and controlling the operation by the read program.

1…撮像装置、 2…撮像部、 2a…レンズ、 2b…撮像素子、 3…フォーカス変更部、 4…タッチパネル、 5…記録部、 5a…画像データベース、 6…表示パネル、 6a…パラメータ設定のアイコン、 6b…肌チェックモードのアイコン、 6c、6ga…顔ガイド枠、 6ca…額パーツ、 6cba…右瞼パーツ、 6cbb…左瞼パーツ、 6cca…右目尻パーツ、 6ccb…左目尻パーツ、 6cd…鼻パーツ、 6cea…右鼻翼パーツ、 6ceb…左鼻翼パーツ、 6cfa…右頬パーツ、 6cfb…左頬パーツ、 6d…戻るアイコン、 6e…肌画像サンプル、 6f…テキスト表示、 6g…スルー画画面、 6h…判定画面、 6i…肌状態パーツ、 7…操作部、 8…姿勢検出部、 10…制御部、 10a…顔判定部、 10b…フォーカス制御部、 10c…パターン判定部、 10d…記録制御部、 10e…操作判定部、 10f…表示制御部、 10g…表示方向判定部、 21…カメラ本体、 22…表示パネル、 23…レリーズスイッチ、 25…ヒンジ、 26…前面スイッチ。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Imaging part, 2a ... Lens, 2b ... Imaging element, 3 ... Focus change part, 4 ... Touch-panel, 5 ... Recording part, 5a ... Image database, 6 ... Display panel, 6a ... Icon of parameter setting 6b ... Skin check mode icon, 6c, 6ga ... Face guide frame, 6ca ... Forehead part, 6cba ... Starboard part, 6cbb ... Port part, 6cca ... Right eye part, 6ccb ... Left eye part, 6cd ... Nose part 6ce ... right nose wing part, 6ceb ... left nose wing part, 6cfa ... right cheek part, 6cfb ... left cheek part, 6d ... back icon, 6e ... skin image sample, 6f ... text display, 6g ... through image screen, 6h ... judgment Screen, 6i ... Skin condition parts, 7 ... Operation part, 8 ... Posture detection part, 10 ... Control part, 10 ... Face determination unit, 10b ... Focus control unit, 10c ... Pattern determination unit, 10d ... Recording control unit, 10e ... Operation determination unit, 10f ... Display control unit, 10g ... Display direction determination unit, 21 ... Camera body, 22 ... Display Panel, 23 ... Release switch, 25 ... Hinge, 26 ... Front switch.

Claims (6)

奥行を有し、顔を含む被写体の光学像を結像させるレンズと、
受光面上に結像された前記光学像に基づいて分析用の画像データを生成する撮像素子と、
前記レンズのフォーカス位置を変更させるフォーカス変更部と、
前記画像データにおける顔から顔パーツを認識する顔判定部と、
前記フォーカス変更部に、前記顔パーツに合わせて前記フォーカス位置を変更させ、前記撮像素子に、順次に複数の前記奥行が異なる前記顔パーツごとにフォーカスが合っている前記画像データを生成させる制御部と、
前記撮像素子により生成された前記画像データと、肌画像サンプルデータとを前記顔パーツごとに比較するパターン判定部と、
を具備する撮像装置。
Have a depth, and a lens for forming an optical image of a subject including a face,
An image sensor that generates image data for analysis based on the optical image formed on the light receiving surface;
A focus changing unit for changing the focus position of the lens;
A face determination unit that recognizes a face part from a face in the image data;
A control unit that causes the focus change unit to change the focus position in accordance with the face part, and causes the image sensor to sequentially generate the image data in focus for each of the face parts having different depths. When,
A pattern determination unit that compares the image data generated by the image sensor and skin image sample data for each facial part;
An imaging apparatus comprising:
前記撮像装置は、画像を表示する表示部をさらに具備し、
前記表示部は、前記パターン判定部により比較された結果と、前記顔パーツごとに作成された当該顔パーツの拡大画像とを表示する
請求項に記載の撮像装置。
The imaging apparatus further includes a display unit that displays an image,
The imaging device according to claim 1 , wherein the display unit displays a result of comparison by the pattern determination unit and an enlarged image of the facial part created for each facial part.
前記撮像装置は、画像を表示する表示部をさらに具備し、
前記表示部に表示される画像は、前記撮像素子によって生成された前記画像データをスルー画として表示するスルー画領域と、前記撮像素子を用いて撮像された前記顔の画像に前記パターン判定部により比較された結果を重畳した画像を表示する判定結果領域とを含む
請求項に記載の撮像装置。
The imaging apparatus further includes a display unit that displays an image,
The image displayed on the display unit includes a through image area that displays the image data generated by the image sensor as a through image, and the face image captured using the image sensor by the pattern determination unit. The imaging apparatus according to claim 1 , further comprising: a determination result area that displays an image on which the comparison result is superimposed.
前記撮像素子を用いて撮像された前記顔の画像と、前記画像における前記顔の位置の指標を示す顔ガイド枠とを表示する表示部と、
操作を検出する操作部と
を更に具備し、
前記操作部が検出した操作に応じて、前記顔ガイド枠は移動又は拡大若しくは縮小され、
前記顔判定部は、前記顔ガイド枠の位置及び大きさを利用して前記顔パーツの認識を行う、
請求項に記載の撮像装置。
A display unit that displays an image of the face imaged using the image sensor and a face guide frame indicating an index of the position of the face in the image;
An operation unit for detecting an operation, and
The face guide frame is moved or enlarged or reduced according to the operation detected by the operation unit,
The face determination unit recognizes the face part using the position and size of the face guide frame.
The imaging device according to claim 1 .
奥行を有し、顔を含む被写体の光学像を結像させるレンズのフォーカス位置を変更することと、
撮像素子の受光面上に結像された前記光学像に基づいて、順次に複数の分析用の画像データを前記撮像素子に生成させることと、
前記画像データにおける顔から認識された顔パーツに合わせて、前記フォーカス位置を変更させることと、
前記撮像素子に、順次に複数の前記奥行が異なる前記顔パーツごとにフォーカスが合っている前記画像データを生成させることと、
前記撮像素子により生成された前記画像データと、肌画像サンプルデータとを前記顔パーツごとに比較することと、
を具備する撮像装置の制御方法。
And to have a depth, to change the focus position of the lens for forming an optical image of a subject including a face,
Based on the optical image formed on the light receiving surface of the image sensor, sequentially causing the image sensor to generate a plurality of image data for analysis;
Changing the focus position according to the face part recognized from the face in the image data;
Causing the imaging device to sequentially generate the image data in focus for each of the face parts having different depths;
Comparing the image data generated by the image sensor and skin image sample data for each facial part;
A method for controlling an imaging apparatus comprising:
コンピュータに、
奥行を有し、顔を含む被写体の光学像を結像させるレンズのフォーカス位置を変更する手順、
撮像素子の受光面上に結像された前記光学像に基づいて、順次に複数の分析用の画像データを前記撮像素子に生成させる手順、
前記画像データにおける顔から認識された顔パーツに合わせて、前記フォーカス位置を変更させる手順、
前記撮像素子に、順次に複数の前記奥行が異なる前記顔パーツごとにフォーカスが合っている前記画像データを生成させる手順、
前記撮像素子により生成された前記画像データと、肌画像サンプルデータとを前記顔パーツごとに比較する手順、
を実行させるための撮像装置の制御プログラム。
On the computer,
Steps have a depth, to change the focus position of the lens for forming an optical image of a subject including a face,
A procedure for causing the image sensor to sequentially generate a plurality of image data for analysis based on the optical image formed on the light receiving surface of the image sensor;
A procedure for changing the focus position according to the face part recognized from the face in the image data,
A step of causing the image sensor to generate the image data in focus for each of the face parts having a plurality of different depths sequentially;
A procedure for comparing the image data generated by the image sensor and skin image sample data for each facial part,
The control program of the imaging device for causing
JP2014206659A 2014-10-07 2014-10-07 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM Expired - Fee Related JP6406966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014206659A JP6406966B2 (en) 2014-10-07 2014-10-07 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014206659A JP6406966B2 (en) 2014-10-07 2014-10-07 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM

Publications (2)

Publication Number Publication Date
JP2016076850A JP2016076850A (en) 2016-05-12
JP6406966B2 true JP6406966B2 (en) 2018-10-17

Family

ID=55951789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014206659A Expired - Fee Related JP6406966B2 (en) 2014-10-07 2014-10-07 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM

Country Status (1)

Country Link
JP (1) JP6406966B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145731A1 (en) * 2020-01-17 2021-07-22 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190040263A (en) 2016-08-30 2019-04-17 엑스리프 가부시키가이샤 Information processing terminal
KR102416500B1 (en) * 2016-11-14 2022-07-05 삼성전자주식회사 Electronic device and Method for controlling the electronic device thereof
US11222195B2 (en) 2016-11-14 2022-01-11 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
WO2020218491A1 (en) 2019-04-26 2020-10-29 日本電気株式会社 Authentication data generation device, authentication device, authentication data generation method, and recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10290389A (en) * 1997-04-16 1998-10-27 Toyota Motor Corp Multi-focus image formation method and image formation device
JP2008167987A (en) * 2007-01-12 2008-07-24 Noritsu Koki Co Ltd Face photographing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145731A1 (en) * 2020-01-17 2021-07-22 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same
US11869213B2 (en) 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same

Also Published As

Publication number Publication date
JP2016076850A (en) 2016-05-12

Similar Documents

Publication Publication Date Title
JP6406966B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM
US8102465B2 (en) Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
JP5450791B2 (en) Stereoscopic display device, stereoscopic imaging device, dominant eye determination method, dominant eye determination program and recording medium used therefor
US20060044399A1 (en) Control system for an image capture device
EP3080550B1 (en) Laser receiver using a smart device
WO2016155226A1 (en) Display control method and apparatus, and electronic device
US8836841B2 (en) Electronic apparatus
JP6356963B2 (en) Machinery
JPWO2014125831A1 (en) Electronic mirror device
JP2014061057A (en) Information processor, information processing method, program, and measurement system
KR20100075167A (en) Apparatus and method for capturing digital image using face recognition function
JP4706197B2 (en) Object determining apparatus and imaging apparatus
JP6984071B6 (en) Lens meter system without equipment
JP2017085204A (en) Registration control of meta-data
JP6261366B2 (en) Imaging device, strobe image pre-acquisition method, and strobe image pre-acquisition program
JP6885764B2 (en) Lens meter
JP2018007082A (en) Image reproduction device, control method therefor, and program
JP7121172B2 (en) lens meter
JP2009267468A (en) Imaging device
JP5104517B2 (en) Imaging device
JP2018163107A (en) Lens meter
JP2013134570A (en) Imaging device, and controlling method and controlling program thereof
KR101571332B1 (en) Digital photographing apparatus and method for controlling the same
JP6256779B2 (en) Information processing apparatus, information processing method, program, and measurement system
WO2020240989A1 (en) Imaging device, imaging control method, and imaging control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180918

R151 Written notification of patent or utility model registration

Ref document number: 6406966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees