JP2015126369A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2015126369A
JP2015126369A JP2013269329A JP2013269329A JP2015126369A JP 2015126369 A JP2015126369 A JP 2015126369A JP 2013269329 A JP2013269329 A JP 2013269329A JP 2013269329 A JP2013269329 A JP 2013269329A JP 2015126369 A JP2015126369 A JP 2015126369A
Authority
JP
Japan
Prior art keywords
imaging
unit
photographer
recognition
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013269329A
Other languages
Japanese (ja)
Inventor
めい 齋藤
Mei Saito
めい 齋藤
明美 菊地
Akiyoshi Kikuchi
明美 菊地
佳宣 佐藤
Yoshinobu Sato
佳宣 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013269329A priority Critical patent/JP2015126369A/en
Publication of JP2015126369A publication Critical patent/JP2015126369A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily make face recognition a success by photographing the image for recognition of a photographer at the timing where the front face of the photographer is easily photographed by using the behavior of a user.SOLUTION: In an imaging apparatus 100 which includes a main camera 101 imaging a main object, a sub camera 102 photographing the photographer, a movable display device 103 displaying a photographed video, and a recognition part 104 performing the face recognition with respect to the image for the face recognition of the photographed photographer and in which the sub camera 102 is arranged in the movable display device 103, a CPU 105 performing the control of the imaging apparatus 100 controls the sub camera 102, so as to photograph the image for the face recognition of the photographer by the sub camera 102, after the imaging apparatus 100 is started up and before predetermined display is performed on the movable display device 103.

Description

本発明は、撮像装置に関し、特に、被写体を撮影する2系統の撮像手段を備え、各撮像手段で撮影したデータを関連付けて保存する撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that includes two systems of imaging means for capturing a subject and stores data captured by each imaging means in association with each other.

デジタルカメラやデジタルビデオカメラ等の撮像装置として、主被写体を撮影すると同時に撮像装置を操作している撮影者を撮影することができるものが提案されている。例えば、特許文献1には、2系統の撮像手段を備える撮像装置であって、第1の撮像手段で主被写体を撮影し、第2の撮像手段で撮像装置を操作する撮影者を撮影し、それぞれの映像信号(画像信号)を合成して記憶媒体に保存する技術が記載されている。   As an image pickup apparatus such as a digital camera or a digital video camera, an apparatus capable of shooting a photographer who is operating the image pickup apparatus at the same time as shooting a main subject has been proposed. For example, Patent Document 1 is an image pickup apparatus including two types of image pickup means, and takes a picture of a photographer who takes an image of a main subject with a first image pickup means and operates the image pickup apparatus with a second image pickup means. A technique is described in which video signals (image signals) are combined and stored in a storage medium.

図9は、2系統の撮像手段を備える撮像装置の概略構成を示す斜視図である。図9に示す撮像装置900は、メインカメラ901とサブカメラ902とを備えている。サブカメラ902は、メインカメラ901の撮影光軸と直交する状態と平行になる状態との間で90度可動なLCDパネル903上に搭載されている。   FIG. 9 is a perspective view illustrating a schematic configuration of an imaging apparatus including two systems of imaging means. An imaging apparatus 900 illustrated in FIG. 9 includes a main camera 901 and a sub camera 902. The sub camera 902 is mounted on an LCD panel 903 that is movable 90 degrees between a state orthogonal to a photographing optical axis of the main camera 901 and a state parallel to the photographing optical axis.

図10は、撮像装置900のLCDパネル903を閉じた状態で撮影者が撮影を行っている状態を示す図である。また、図11は、撮像装置900のLCDパネル903を開いた状態で撮影者が撮影を行っている状態を示す図である。   FIG. 10 is a diagram illustrating a state in which the photographer is shooting with the LCD panel 903 of the imaging apparatus 900 closed. FIG. 11 is a diagram illustrating a state in which the photographer is shooting with the LCD panel 903 of the imaging apparatus 900 opened.

撮影者は、メインカメラ901で撮影する主被写体の方向を向くことが多い。図10に示すようにLCDパネル903が閉じられている場合には、撮影者は主被写体の方向を向いて撮像装置900を顔の前で構えることが多いため、サブカメラ902で撮影者の正面顔を撮影しやすくなる。一方、図11に示すようにLCDパネル903が開いている場合には、撮影者は撮像装置900を顔よりも下方で構えることが多い。そのため、撮影者が主被写体の方向を向いてしまうと、サブカメラ902では撮影者の正面顔を撮影し難く、撮影者の顔が下から撮影されやすくなる。   The photographer often faces the direction of the main subject photographed by the main camera 901. When the LCD panel 903 is closed as shown in FIG. 10, the photographer often faces the main subject and holds the imaging device 900 in front of the face. It makes it easier to shoot a face. On the other hand, when the LCD panel 903 is open as shown in FIG. 11, the photographer often holds the imaging device 900 below the face. Therefore, when the photographer turns to the main subject, it is difficult for the sub camera 902 to photograph the front face of the photographer, and the photographer's face is easily photographed from below.

ここで、顔検出機能により検出した顔画像から目や鼻の位置等の個人毎に異なる顔領域の特徴量を抽出し、予め登録した顔画像の辞書データと比較することにより、検出した顔が登録されている人物か否か識別する顔認識機能が知られている。顔認識機能を利用することにより、例えば、メインカメラ901の撮影映像にサブカメラ902の撮影映像を縮小して取り込むことで得られる映像ファイルを、主被写体別或いは撮影者別に整理すること等を行うことができる。   Here, by extracting feature values of different face regions such as the positions of eyes and nose from the face image detected by the face detection function and comparing them with dictionary data of face images registered in advance, the detected face is A face recognition function for identifying whether or not a person is registered is known. By using the face recognition function, for example, the video file obtained by reducing and capturing the captured video of the sub camera 902 into the captured video of the main camera 901 is organized by main subject or photographer. be able to.

顔画像の辞書データが正面顔であると、正面顔と下方から撮影した顔とでは顔の特徴量が異なるため、顔認識の精度が下がってしまい、認識が成功し難くなる。そこで、撮影者の習性を利用して、撮影者の正面顔の画像を取得し、顔認識を可能にする技術が、例えば特許文献2,3に提案されている。   If the dictionary data of the face image is a front face, the face feature amount differs between the front face and the face photographed from below, so that the face recognition accuracy is lowered and the recognition is difficult to succeed. For this reason, for example, Patent Documents 2 and 3 propose techniques for acquiring an image of the front face of the photographer using the photographer's habits and enabling face recognition.

特許文献2に記載された技術では、認識装置の特定の操作部の近傍に撮像部を配置し、ユーザが特定の操作部を操作する際に撮像部によって顔画像を撮影することによってユーザの正面顔の画像を取得している。また、特許文献3に記載された技術では、被写体の顔認識において、被写体の顔が撮影方向に向いているか否かを顔の特徴抽出の可否で判断し、顔が撮影方向に向いていない場合には、顔を撮影方向へ向けるように誘導している。   In the technique described in Patent Document 2, an imaging unit is arranged in the vicinity of a specific operation unit of the recognition device, and when the user operates the specific operation unit, a face image is captured by the imaging unit, thereby the front of the user. A face image is acquired. In the technique described in Patent Document 3, in the face recognition of a subject, whether or not the subject's face is in the shooting direction is determined based on whether or not the facial feature can be extracted, and the face is not in the shooting direction. Is guided to face the shooting direction.

特開平6−165029号公報JP-A-6-165029 特開2006−344100号公報JP 2006-344100 A 特開2010−218039号公報JP 2010-218039 A

しかしながら、上記特許文献2に記載された技術では、撮影者が特定の操作部を操作したときに取得された画像の中に正面顔の画像がなかった場合には、顔認識が成功し難いという問題は残ったままとなってしまう。これに対して、図9に示した撮像装置900においてLCDパネルが閉じている場合には、撮影者の正面顔が撮影されやすいため、顔認識が成功する可能性は高い。よって、この場合には、上記特許文献3に記載された技術のように、撮影者の顔の特徴抽出を行って、顔が撮像方向へ向いているか否かを判断する必要はない。   However, in the technique described in Patent Document 2, it is difficult to recognize a face when there is no front face image in the image acquired when the photographer operates a specific operation unit. The problem remains. On the other hand, when the LCD panel is closed in the imaging apparatus 900 shown in FIG. 9, the front face of the photographer is likely to be photographed, so that the possibility of successful face recognition is high. Therefore, in this case, unlike the technique described in Patent Document 3, it is not necessary to extract the feature of the photographer's face and determine whether or not the face is facing the imaging direction.

本発明は、主被写体と共に撮影者を撮影して顔認識を行う撮像装置において、顔認識を成功させやすくする技術を提供することを目的とする。   An object of the present invention is to provide a technique for facilitating successful face recognition in an imaging apparatus that performs face recognition by photographing a photographer together with a main subject.

本発明に係る撮像装置は、主被写体を撮像する第1の撮像手段と、前記第1の撮像手段を操作する撮影者を撮影する第2の撮像手段と、前記第1の撮像手段および前記第2の撮像手段で撮像される映像を表示する可動式表示装置とを備え、前記第2の撮像手段が前記可動式表示装置に配置されてなる撮像装置であって、少なくとも前記第2の撮像手段により撮影された前記撮影者の顔認識用画像に対して顔認識を行う認識手段と、前記撮像装置の起動後、前記可動式表示装置に所定の表示が行われる前に、前記第2の撮像手段により前記撮影者の顔認識用画像を撮影するように前記第2の撮像手段を制御する制御手段とを備えることを特徴とする。   An image pickup apparatus according to the present invention includes a first image pickup unit that picks up a main subject, a second image pickup unit that picks up a photographer who operates the first image pickup unit, the first image pickup unit, and the first image pickup unit. And a movable display device that displays an image picked up by the two image pickup means, wherein the second image pickup means is disposed on the movable display device, and at least the second image pickup means Recognizing means for performing face recognition on the photographer's face recognizing image photographed by the imaging device, and after the activation of the imaging device, before the predetermined display is performed on the movable display device, the second imaging And a control means for controlling the second imaging means so as to photograph the photographer's face recognition image by means.

本発明では、撮影者の習性を利用して、正面顔が撮影しやすい状況で撮影者の顔を撮影することにより、顔認識が成功しやすくなる。   In the present invention, the face recognition is likely to be successful by taking the photographer's face in a situation where the front face is easily photographed using the photographer's habits.

本発明の第1実施形態に係る撮像装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment of the present invention. 図1の撮像装置において実行される顔認識処理のフローチャートである。3 is a flowchart of face recognition processing executed in the imaging apparatus of FIG. 本発明の第2実施形態に係る撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device which concerns on 2nd Embodiment of this invention. 図3の撮像装置において実行される顔認識処理のフローチャートである。It is a flowchart of the face recognition process performed in the imaging device of FIG. 本発明の第3実施形態に係る撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device which concerns on 3rd Embodiment of this invention. 図5の撮像装置において実行される顔認識処理のフローチャートである。6 is a flowchart of face recognition processing executed in the imaging apparatus of FIG. 図6のステップS603で実行される視線検出処理において用いられる視線検出方法の原理を示す上面図及び側面図である。It is the top view and side view which show the principle of the gaze detection method used in the gaze detection process performed by step S603 of FIG. 図7に示す視線検出方法において、撮像センサに投影される眼球像の概略図と、撮像センサの出力強度を示す図である。FIG. 8 is a schematic diagram of an eyeball image projected on the imaging sensor and a diagram showing output intensity of the imaging sensor in the visual line detection method shown in FIG. 2系統の撮像手段を備える撮像装置の概略構成を示す斜視図である。It is a perspective view which shows schematic structure of an imaging device provided with an imaging means of 2 systems. 図9の撮像装置のLCDパネルを閉じた状態で撮影者が撮影を行っている状態を示す図である。FIG. 10 is a diagram illustrating a state where a photographer is taking a picture with the LCD panel of the imaging apparatus of FIG. 9 closed. 図9の撮像装置のLCDパネルを開いた状態で撮影者が撮影を行っている状態を示す図である。FIG. 10 is a diagram illustrating a state where a photographer is taking a picture with the LCD panel of the imaging apparatus of FIG. 9 opened.

以下、本発明の実施形態について添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1実施形態>
図1は、本発明の第1実施形態に係る撮像装置100の概略構成を示すブロック図である。図1に示す撮像装置100は、第1の撮像手段であるメインカメラ101、第2の撮像手段であるサブカメラ102、可動式表示装置103、認識部104及びCPU105を備える。
<First Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus 100 according to the first embodiment of the present invention. An imaging apparatus 100 illustrated in FIG. 1 includes a main camera 101 that is a first imaging unit, a sub camera 102 that is a second imaging unit, a movable display device 103, a recognition unit 104, and a CPU 105.

撮像装置100におけるメインカメラ101、サブカメラ102及び可動式表示装置103はそれぞれ、図9に示した撮像装置900のメインカメラ901、サブカメラ902及びLCDパネル903と同等である。また、これらの配置形態や外観も撮像装置900と同じである。   The main camera 101, the sub camera 102, and the movable display device 103 in the imaging apparatus 100 are respectively equivalent to the main camera 901, the sub camera 902, and the LCD panel 903 of the imaging apparatus 900 shown in FIG. In addition, the arrangement form and appearance are the same as those of the imaging apparatus 900.

メインカメラ101は、主に主被写体(撮影者以外の被写体)の撮影に用いられ、サブカメラ102は主に撮影者の顔画像(顔映像)の撮影に用いられる。可動式表示装置103は、例えばLCDパネルや有機ELパネルであり、その表示画面がメインカメラ101の撮影光軸と直交する状態(閉じた状態)と平行になる状態(開いた状態)との間で可動となっている。サブカメラ102は、可動式表示装置103に配置されている。   The main camera 101 is mainly used for photographing a main subject (subject other than the photographer), and the sub camera 102 is mainly used for photographing a photographer's face image (face image). The movable display device 103 is, for example, an LCD panel or an organic EL panel, and the display screen is between a state (closed state) orthogonal to the photographing optical axis of the main camera 101 and a state parallel to the state (open state). It is movable with. The sub camera 102 is disposed on the movable display device 103.

認識部104は、メインカメラ101及びサブカメラ102のそれぞれで撮影された顔画像に対して顔認識を行う。認識部104は、予め所定の人物の顔画像を辞書データとして記憶しており、ここでは、辞書データには正面顔の画像が記憶されているものとする。認識部104は、撮影された顔画像と辞書データの顔画像とを照合することで顔認識を行う。   The recognition unit 104 performs face recognition on the face images captured by the main camera 101 and the sub camera 102. The recognition unit 104 stores a face image of a predetermined person in advance as dictionary data, and here, it is assumed that a front face image is stored in the dictionary data. The recognition unit 104 performs face recognition by comparing the captured face image with the face image of the dictionary data.

CPU105は、撮像装置100の全体的動作の制御を行う。例えば、CPU105は、メインカメラ101及びサブカメラ102での撮影動作、認識部104での顔認識の実行、可動式表示装置103への画像(映像)表示等、撮像装置100で実行される各種の動作や処理を制御する。   The CPU 105 controls the overall operation of the imaging apparatus 100. For example, the CPU 105 performs various operations executed by the imaging apparatus 100 such as a shooting operation by the main camera 101 and the sub camera 102, execution of face recognition by the recognition unit 104, and display of an image (video) on the movable display device 103. Control operations and processes.

図2は、撮像装置100において実行される、撮像装置100の起動時における顔認識処理のフローチャートである。図2のフローチャートに示される各処理は、CPU105が不図示のROMに格納された所定のプログラムを不図示のRAMに展開、実行することで、撮像装置100を構成する各部の動作や処理を制御することにより実行される。   FIG. 2 is a flowchart of face recognition processing executed in the imaging apparatus 100 when the imaging apparatus 100 is activated. Each process shown in the flowchart of FIG. 2 is performed by the CPU 105 developing and executing a predetermined program stored in a ROM (not shown) on a RAM (not shown), thereby controlling the operation and processing of each unit constituting the imaging apparatus 100. It is executed by doing.

ステップS201において、CPU105は、サブカメラ102により撮影者の顔認識用の顔画像(以下「顔認識用画像」という)を取得(撮影)する。ここで、撮影者は、撮像装置100の起動後には可動式表示装置103に撮像装置100の製造者(装置メーカ)のロゴ等の起動画面が表示され、デフォルトのメニュー表示等の所定の表示が行われるまでの間、可動式表示装置103の画面を見ていることが多い。   In step S <b> 201, the CPU 105 acquires (captures) a photographer's face recognition face image (hereinafter referred to as “face recognition image”) by the sub camera 102. Here, after the imaging apparatus 100 is activated, the photographer displays a startup screen such as a logo (manufacturer) of the imaging apparatus 100 on the movable display device 103, and a predetermined display such as a default menu display is displayed. In the meantime, the screen of the movable display device 103 is often viewed.

このような撮影者の習性を利用して、ステップS201での撮影者の顔認識用画像の撮影を、撮像装置100を起動直後の撮影者が可動式表示装置103の方向に顔を向けているときに行うようにする。これにより、ステップS201では撮影者の正面顔が撮影されやすくなり、取得した顔画像で後のステップS204の顔認識処理を行うことにより、顔認識を成功しやすくすることができる。これに対し、可動式表示装置103にロゴ等の起動画面が表示され、デフォルトのメニュー表示等の所定の表示が行われている間は、メインカメラ101の画角内に主被写体が含まれている可能性は高くはない。そのため、サブカメラ102による顔認識用画像は、この所定の表示が行われている間に開始されているが、メインカメラ101による顔認識用画像は、この所定の表示が完了した後に開始される。   Using the photographer's habits, the photographer's face recognition image is photographed in step S <b> 201, and the photographer immediately after starting the imaging apparatus 100 points his face in the direction of the movable display device 103. To do when. As a result, the front face of the photographer can be easily photographed in step S201, and face recognition processing in the subsequent step S204 can be performed on the acquired face image, thereby facilitating successful face recognition. On the other hand, while a startup screen such as a logo is displayed on the movable display device 103 and a predetermined display such as a default menu display is being performed, the main subject is included within the angle of view of the main camera 101. The possibility is not high. For this reason, the face recognition image by the sub camera 102 is started while the predetermined display is being performed, but the face recognition image by the main camera 101 is started after the predetermined display is completed. .

続くステップS202において、CPU105は、サブカメラ102による撮影者の顔認識用画像の取得が終了したか否かを判断する。CPU105は、撮影者の顔認識用画像の取得が終了するまで判断を繰り返し(S202でNO)、撮影者の顔認識用画像を取得した場合(S202でYES)、ステップS203(ルートA)とステップS204〜206(ルートB)の処理を平行して実行する。   In subsequent step S202, CPU 105 determines whether or not acquisition of the image for recognizing the photographer's face by sub camera 102 has been completed. The CPU 105 repeats the determination until acquisition of the photographer's face recognition image is completed (NO in S202). When the photographer's face recognition image is acquired (YES in S202), step S203 (route A) and step are performed. The processing of S204 to 206 (route B) is executed in parallel.

ステップS203において、CPU105は、メインカメラ101とサブカメラ102により得られた各映像信号を合成して、合成した映像を可動式表示装置103に表示する。例えば、メインカメラ101により得られた映像を可動式表示装置103の画面全体に表示すると共に、サブカメラ102により得られた映像を可動式表示装置103の画面右下に小さく重畳表示する。   In step S <b> 203, the CPU 105 combines the video signals obtained by the main camera 101 and the sub camera 102 and displays the combined video on the movable display device 103. For example, the video obtained by the main camera 101 is displayed on the entire screen of the movable display device 103 and the video obtained by the sub camera 102 is displayed in a small superimposed manner on the lower right of the screen of the movable display device 103.

ステップS204において、CPU105は、ステップS201で取得した撮影者の顔認識用画像に対して、認識部104による顔認識処理を行う。ステップS201で取得した撮影者の顔認識用画像から、目や鼻の位置等の個人毎に異なる顔領域の特徴量を抽出し、予め登録した顔画像の辞書データと比較することにより、検出した顔が登録されている人物か否か識別する。   In step S204, the CPU 105 performs face recognition processing by the recognition unit 104 on the photographer's face recognition image acquired in step S201. Detected by extracting feature quantities of different face regions for each individual from the photographer's face recognition image acquired in step S201 and comparing them with dictionary data of face images registered in advance. Identify whether the face is a registered person.

続くステップS205において、CPU105は、ステップS204の顔認識処理の結果、顔認識が成功した(OK)か否かを判断する。CPU105は、顔認識に失敗した場合(S204でNO)、処理をステップS206へ進め、顔認識が成功した場合(S204でYES)、本処理を終了させる。なお、撮影動作が引き続き行われる場合、メインカメラ101とサブカメラ102により得られた映像の可動式表示装置103への表示(S203)は継続される。   In subsequent step S205, CPU 105 determines whether or not face recognition is successful (OK) as a result of the face recognition processing in step S204. If the face recognition fails (NO in S204), the CPU 105 advances the process to step S206. If the face recognition succeeds (YES in S204), the CPU 105 ends the process. Note that when the photographing operation is continued, the display of the video obtained by the main camera 101 and the sub camera 102 on the movable display device 103 (S203) is continued.

ステップS206において、CPU105は、サブカメラ102により撮影者の顔認識用画像を再取得(再撮影)し、その後、処理をステップS204へ戻す。つまり、顔認識用画像を入れ替えて、再度、顔認識が行われる。   In step S206, the CPU 105 re-acquires (re-photographs) the photographer's face recognition image by the sub camera 102, and then returns the process to step S204. That is, face recognition is performed again by replacing the face recognition images.

以上の説明の通り、第1実施形態では、撮影者が可動式表示装置103の方向に顔を向けているときに顔認識用画像を取得するため、正面顔の画像を取得しやすく、これにより、顔認識を成功しやすくすることができる。   As described above, in the first embodiment, since the image for face recognition is acquired when the photographer is facing the face in the direction of the movable display device 103, it is easy to acquire a front face image. , Can make face recognition easy to succeed.

<第2実施形態>
図3は、本発明の第2実施形態に係る撮像装置300の概略構成を示すブロック図である。図3に示す撮像装置300は、第1の撮像手段であるメインカメラ101、第2の撮像手段であるサブカメラ102、可動式表示装置103、認識部104、CPU105及び表示装置状態検出部301を備える。メインカメラ101、サブカメラ102、可動式表示装置103、認識部104及びCPU105は、第1実施形態に係る撮像装置100を構成する各部(ブロック)と同じであるので、ここでの説明を省略する。
Second Embodiment
FIG. 3 is a block diagram illustrating a schematic configuration of an imaging apparatus 300 according to the second embodiment of the present invention. An imaging apparatus 300 shown in FIG. 3 includes a main camera 101 as a first imaging means, a sub camera 102 as a second imaging means, a movable display device 103, a recognition unit 104, a CPU 105, and a display device state detection unit 301. Prepare. Since the main camera 101, the sub camera 102, the movable display device 103, the recognition unit 104, and the CPU 105 are the same as the respective units (blocks) constituting the imaging device 100 according to the first embodiment, description thereof is omitted here. .

表示装置状態検出部301は、例えば、可動式表示装置の103の状態の変化を検出し、具体的には、可動式表示装置の103の動きを検出する加速度センサが用いられる。表示装置状態検出部301は、CPU105の制御下において、可動式表示装置103が開いた状態にあるか閉じた状態(撮像装置300の本体に収納された状態)にあるかを検出する。なお、磁気センサ等を用いれば、開いた状態にあるときに、どの程度の角度で開いているかを検出するように構成することもできる。   The display device state detection unit 301 uses, for example, an acceleration sensor that detects a change in the state of the movable display device 103 and specifically detects the movement of the movable display device 103. The display device state detection unit 301 detects whether the movable display device 103 is in an open state or a closed state (a state accommodated in the main body of the imaging device 300) under the control of the CPU 105. In addition, if it uses a magnetic sensor etc., when it is in an open state, it can also be comprised so that it may detect at what angle it is open.

図4は、撮像装置300において実行される顔認識処理のフローチャートである。図4のフローチャートに示される各処理は、CPU105が不図示のROMに格納された所定のプログラムを不図示のRAMに展開、実行することで、撮像装置300を構成する各部の動作や処理を制御することにより実行される。   FIG. 4 is a flowchart of face recognition processing executed in the imaging apparatus 300. Each process shown in the flowchart of FIG. 4 is performed by the CPU 105 developing and executing a predetermined program stored in a ROM (not shown) on a RAM (not shown), thereby controlling the operation and processing of each unit constituting the imaging apparatus 300. It is executed by doing.

ステップS401において、CPU105は、表示装置状態検出部301により、可動式表示装置103の状態を検出する。続くステップS402において、CPU105は、ステップS401での検出処理結果に基づき、可動式表示装置103に動きがあったか否かを判断する。具体的には、撮影者が可動式表示装置103を動かそうとして可動方向に加えた力を加速度センサによって加速信号として検出したか否かを判断する。CPU105は、可動式表示装置103に動きがない場合(S402でNO)、処理をステップS401へ戻し、可動式表示装置103に動きがあった場合(S402でYES)、処理をステップS403へ進める。   In step S <b> 401, the CPU 105 detects the state of the movable display device 103 by the display device state detection unit 301. In subsequent step S402, CPU 105 determines whether or not movable display device 103 has moved based on the detection processing result in step S401. Specifically, it is determined whether or not the photographer has detected the force applied in the movable direction to move the movable display device 103 as an acceleration signal by the acceleration sensor. If there is no movement in movable display device 103 (NO in S402), CPU 105 returns the process to step S401, and if there is movement in movable display device 103 (YES in S402), the process proceeds to step S403.

ステップS403において、CPU105は、サブカメラ102により撮影者の顔認識用画像を取得(撮影)する。ここで、ステップS402で判断が「YES」となる場合には、撮影者が可動式表示装置103の回動操作を行っているので、撮影者の顔は可動式表示装置103の方向を向いていることが多い。そのため、ステップS402で撮影者の顔認識用画像を撮影すると、正面顔が撮影されやすくなり、取得した顔画像で後のステップS404の顔認識処理を行うことにより、顔認識を成功しやすくすることができる。   In step S <b> 403, the CPU 105 acquires (photographs) a photographer's face recognition image by the sub camera 102. Here, when the determination is “YES” in step S <b> 402, the photographer is turning the movable display device 103, so the photographer's face faces the direction of the movable display device 103. There are many. Therefore, when the photographer's face recognition image is photographed in step S402, the front face is easily photographed, and the face recognition process in the subsequent step S404 is performed on the acquired face image, thereby facilitating the successful face recognition. Can do.

ステップS404において、CPU105は、ステップS403で取得した撮影者の顔認識用画像に対して、認識部104による顔認識処理を行う。続くステップS405において、CPU105は、ステップS404の顔認識処理の結果、顔認識が成功した(OK)か否かを判断する。CPU105は、顔認識に失敗した場合(S405でNO)、処理をステップS401へ戻し、顔認識が成功した場合(S405でYES)、本処理を終了させる。   In step S404, the CPU 105 performs face recognition processing by the recognition unit 104 on the photographer's face recognition image acquired in step S403. In subsequent step S405, CPU 105 determines whether or not face recognition is successful (OK) as a result of the face recognition processing in step S404. If the face recognition has failed (NO in S405), the CPU 105 returns the process to step S401. If the face recognition has succeeded (YES in S405), the CPU 105 ends this process.

以上の説明の通り、第1実施形態と同様に第2実施形態でも、撮影者が可動式表示装置103の方向に顔を向けているときに顔認識用画像を取得するため、正面顔の画像を取得しやすく、これにより、顔認識を成功しやすくすることができる。また、一度、顔認識に失敗しても、可動式表示装置103の動きを再度検出した際に優先的に顔画像を取得して顔認識を行うため、顔認識を成功しやすくすることができる。   As described above, in the second embodiment as in the first embodiment, the face recognition image is acquired in order to obtain the face recognition image when the photographer is facing the face in the direction of the movable display device 103. This makes it possible to facilitate the face recognition. Moreover, even if face recognition fails once, when the movement of the movable display device 103 is detected again, the face image is preferentially acquired and face recognition is performed, so that face recognition can be made easy to succeed. .

<第3実施形態>
図5は、本発明の第3実施形態に係る撮像装置500の概略構成を示すブロック図である。図5に示す撮像装置500は、第1の撮像手段であるメインカメラ101、第2の撮像手段であるサブカメラ102、可動式表示装置103、認識部104、CPU105及び表示装置状態検出部301を備える。これらメインカメラ101、サブカメラ102、可動式表示装置103、認識部104、CPU105及び表示装置状態検出部301は、第2実施形態に係る撮像装置300を構成する各部(ブロック)と同じであるので、ここでの説明を省略する。
<Third Embodiment>
FIG. 5 is a block diagram showing a schematic configuration of an imaging apparatus 500 according to the third embodiment of the present invention. An imaging apparatus 500 shown in FIG. 5 includes a main camera 101 as a first imaging means, a sub camera 102 as a second imaging means, a movable display device 103, a recognition unit 104, a CPU 105, and a display device state detection unit 301. Prepare. The main camera 101, the sub camera 102, the movable display device 103, the recognition unit 104, the CPU 105, and the display device state detection unit 301 are the same as each unit (block) that configures the imaging device 300 according to the second embodiment. The description here is omitted.

また、撮像装置500は、撮影者状態判別部501、LED502及びスピーカ503を備える。撮影者状態判別部501は、撮影者の顔が可動式表示装置103(又はサブカメラ102)の方向へ向いているか否かを、例えば、視線検出により判別する。LED502は、例えば、顔認識が成功しない場合に、CPU105の制御下において発光し、撮影者に警告を発する。また、スピーカ503は、顔認識が成功しない場合に、例えば、「顔を画面に向けて下さい」等の音声或いは警告音(所謂、ピー音等)を発する。なお、可動式表示装置103は、顔認識が成功しない場合に警告手段として機能する。可動式表示装置103には、LED502やスピーカ503による警告が行われる際に或いは単独で、「顔を画面に向けて下さい」等のメッセージが表示される。   In addition, the imaging apparatus 500 includes a photographer state determination unit 501, an LED 502, and a speaker 503. The photographer state determination unit 501 determines whether the photographer's face is facing the movable display device 103 (or the sub camera 102) by, for example, line-of-sight detection. For example, when the face recognition is not successful, the LED 502 emits light under the control of the CPU 105 and issues a warning to the photographer. In addition, when the face recognition is not successful, the speaker 503 emits a sound such as “Please turn your face to the screen” or a warning sound (so-called beep sound). The movable display device 103 functions as a warning unit when face recognition is not successful. A message such as “Please turn your face to the screen” is displayed on the movable display device 103 when a warning is given by the LED 502 or the speaker 503 or alone.

図6は、撮像装置500において実行される顔認識処理のフローチャートである。図6のフローチャートに示される各処理は、CPU105が不図示のROMに格納された所定のプログラムを不図示のRAMに展開、実行することで、撮像装置500を構成する各部の動作や処理を制御することにより実行される。   FIG. 6 is a flowchart of face recognition processing executed in the imaging apparatus 500. Each process shown in the flowchart of FIG. 6 is performed by the CPU 105 developing and executing a predetermined program stored in a ROM (not shown) on a RAM (not shown), thereby controlling the operation and processing of each unit constituting the imaging apparatus 500. It is executed by doing.

ステップS601において、CPU105は、表示装置状態検出部301により可動式表示装置103の状態(位置)を検出する。続くステップS602において、CPU105は、可動式表示装置103が開いているか否かを判断する。CPU105は、可動式表示装置103が開いている場合(S602でYES)、処理ステップS603へ進め、可動式表示装置103が閉じている場合(S602でNO)、処理をステップS606へ進める。   In step S <b> 601, the CPU 105 detects the state (position) of the movable display device 103 by the display device state detection unit 301. In subsequent step S602, CPU 105 determines whether or not movable display device 103 is open. If the movable display device 103 is open (YES in S602), the CPU 105 proceeds to step S603, and if the movable display device 103 is closed (NO in S602), the process proceeds to step S606.

ステップS603において、CPU105は、撮影者の視線検出処理を行う。撮影者の視線検出処理は、具体的には、撮影者状態判別部501により視線を検出して、撮影者の顔が可動式表示装置103(サブカメラ102)の方向に向いているか否かを判別することにより、顔画像を撮影したときに正面顔になるか否かを判別する。なお、ステップS603の視線検出処理の詳細については、図7及び図8を参照して後述する。   In step S603, the CPU 105 performs a photographer's line-of-sight detection process. Specifically, in the photographer's gaze detection process, the gaze state is detected by the photographer state determination unit 501, and it is determined whether or not the photographer's face is facing the movable display device 103 (sub camera 102). By discriminating, it is discriminated whether or not a front face is obtained when a face image is taken. Details of the line-of-sight detection process in step S603 will be described later with reference to FIGS.

次に、ステップS604において、CPU105は、ステップS603の視線検出処理の結果に基づき、撮影者の瞳孔が目の中心にあるか否かを判定する。CPU105は、撮影者の瞳孔が目の中心にない場合(S604でNO)、処理をステップS605へ進め、撮影者の瞳孔が目の中心にある場合(S604でYES)、処理をステップS606へ進める。   Next, in step S604, the CPU 105 determines whether the photographer's pupil is at the center of the eye based on the result of the line-of-sight detection process in step S603. If the photographer's pupil is not in the center of the eye (NO in S604), the CPU 105 proceeds the process to step S605. If the photographer's pupil is in the center of the eye (YES in S604), the process proceeds to step S606. .

撮影者の瞳孔が目の中心にない場合とは、撮影者の顔が可動式表示装置103(サブカメラ102)の方向に向いていないことを示している。そのため、ステップS605において、CPU105は、警告処理を行い、その後、処理をステップS601へ戻す。ステップS605の警告処理は、LED502の発光、スピーカ503から音声警告、可動式表示装置103での警告表示等である。   The case where the photographer's pupil is not in the center of the eye indicates that the photographer's face is not directed toward the movable display device 103 (sub camera 102). Therefore, in step S605, the CPU 105 performs a warning process, and then returns the process to step S601. The warning processing in step S605 includes light emission of the LED 502, voice warning from the speaker 503, warning display on the movable display device 103, and the like.

一方、撮影者の瞳孔が目の中心にある場合には、撮影者の顔が可動式表示装置103(サブカメラ102)の方向に向いていることを示している。また、ステップS602で可動式表示装置103が閉じている場合(S602でNO)には、撮影者は目の前に撮像装置500を構えて、可動式表示装置103を見ていると推測される。そこで、ステップS606において、CPU105は、サブカメラ102により撮影者の顔画像を撮影し、撮影した顔画像に対して認識部104にて顔認識を行う。   On the other hand, when the photographer's pupil is in the center of the eye, it indicates that the photographer's face is facing the movable display device 103 (sub camera 102). If the movable display device 103 is closed in step S602 (NO in S602), it is assumed that the photographer holds the imaging device 500 in front of him and is looking at the movable display device 103. . Therefore, in step S606, the CPU 105 captures the photographer's face image by the sub camera 102, and the recognition unit 104 performs face recognition on the photographed face image.

次に、ステップS607において、CPU105は、顔認識が成功したか否かを判断する。CPU105は、顔認識が成功した場合(S607でYES)、本処理を終了させ、顔認識に失敗した場合(S607でYES)、処理をステップS601へ戻す。   Next, in step S607, the CPU 105 determines whether face recognition has been successful. If the face recognition is successful (YES in S607), the CPU 105 ends the process, and if face recognition fails (YES in S607), the process returns to step S601.

ステップS603の視線検出処理について、図7及び図8を参照して説明する。図7(a),(b)はそれぞれ、視線検出方法の原理を示す上面図及び側面図である。撮影者に対して不感の赤外光を発光する発光ダイオード等の光源702,703から、撮影者の顔に向けて赤外光が照射される。ここで、光源702,703は、集光レンズ706の光軸に対して図中x方向(水平方向)で略対称となる位置に、且つ、図中y方向(鉛直方向)では集光レンズ706の光軸の若干下側の位置に配置されており、観察者の眼球を発散照明している。撮影者の眼球704で反射した赤外光の一部は集光レンズ706によって撮像センサ707に結像する。なお、撮像センサ707は、光学像を電気信号に変換するCMOSセンサやCCDセンサ等のイメージセンサである。   The line-of-sight detection process in step S603 will be described with reference to FIGS. 7A and 7B are a top view and a side view, respectively, showing the principle of the line-of-sight detection method. Infrared light is irradiated toward the photographer's face from light sources 702 and 703 such as light emitting diodes that emit infrared light insensitive to the photographer. Here, the light sources 702 and 703 are positioned substantially symmetrical with respect to the optical axis of the condenser lens 706 in the x direction (horizontal direction) in the figure and in the y direction (vertical direction) in the figure. It is arranged at a position slightly below the optical axis, and diverges and illuminates the observer's eyeball. Part of the infrared light reflected by the photographer's eyeball 704 forms an image on the image sensor 707 by the condenser lens 706. The imaging sensor 707 is an image sensor such as a CMOS sensor or a CCD sensor that converts an optical image into an electrical signal.

図8(a)は、撮像センサ707に投影される眼球像の概略図であり、図5(b)は撮像センサ707の出力強度を示す図である。水平面(z−x面)で考えると、図7(a)に示すように、光源703から放射された赤外光は、撮影者の眼球704の角膜705を照明する。このとき、角膜705の表面で反射した赤外光により形成される虚像である角膜反射像dは、集光レンズ706により集光され、撮像センサ707上の位置d′に結像する。同様に、光源702から放射された赤外光は、眼球の角膜705を照明し、角膜705の表面で反射した赤外光により形成された虚像である角膜反射像eは、集光レンズ706により集光され、撮像センサ707上の位置e′に結像する。また、虹彩701の端部a,bからの光束は、集光レンズ706を介して撮像センサ707上の位置a′,b′に結像する。   FIG. 8A is a schematic diagram of an eyeball image projected on the image sensor 707, and FIG. 5B is a diagram illustrating the output intensity of the image sensor 707. Considering the horizontal plane (z-x plane), as shown in FIG. 7A, the infrared light emitted from the light source 703 illuminates the cornea 705 of the eyeball 704 of the photographer. At this time, a cornea reflection image d, which is a virtual image formed by infrared light reflected from the surface of the cornea 705, is collected by the condenser lens 706 and formed at a position d ′ on the image sensor 707. Similarly, the infrared light emitted from the light source 702 illuminates the cornea 705 of the eyeball, and the cornea reflection image e which is a virtual image formed by the infrared light reflected by the surface of the cornea 705 is obtained by the condenser lens 706. The light is collected and imaged at a position e ′ on the image sensor 707. Further, light beams from the ends a and b of the iris 701 are imaged at positions a ′ and b ′ on the image sensor 707 via the condenser lens 706.

集光レンズ706の光軸に対する眼球704の光軸の回転角θが小さい場合、虹彩701の端部a,bのx座標を(x,x)とすると、(x,x)は、撮像センサ707上で多数点(図5(a)中の×印)求めことができる。そこで、まず円の最小自乗法により、瞳孔中心cのx座標xを算出する。一方、角膜705の曲率中心Oのx座標をxとすると、眼球704の光軸に対する水平方向の回転角θは、下記式1で表される。なお、下記式1における「oc」は、角膜705の曲率中心Oと瞳孔中心cとの間の距離である。 When the rotation angle θ of the optical axis of the eyeball 704 with respect to the optical axis of the condenser lens 706 is small, assuming that the x coordinates of the ends a and b of the iris 701 are (x a , x b ), (x a , x b ) Can be obtained on the image sensor 707 (multiple points in FIG. 5A). Therefore, the x coordinate x C of the pupil center c is first calculated by the least square method of the circle. On the other hand, when the x coordinate of the center of curvature O of the cornea 705 is x O , the horizontal rotation angle θ X with respect to the optical axis of the eyeball 704 is expressed by the following formula 1. Note that “oc” in Equation 1 below is the distance between the center of curvature O of the cornea 705 and the pupil center c.

また、角膜反射像d,eの中心kのx座標xは、角膜反射像d,eのそれぞれの中心のx座標x,xを用いて下記式2で表されるため、角膜705の曲率中心Oのx座標xは、補正値δを考慮して、下記式3で表される。なお、補正値δは、視線検出装置の設置方法や眼球距離等から幾何学的に求められる数値であり、その算出方法には周知の技術を用いることができるため、ここでの詳細な説明は省略する。 Also, the corneal reflected images d, x-coordinate x k of the center k of e, because the cornea reflection image d, x-coordinate of the center of each e x d, with x e represented by the following formula 2, the cornea 705 The x coordinate x O of the center of curvature O is expressed by the following formula 3 in consideration of the correction value δ X. The correction value [delta] X is a numerical value geometrically obtained from the installation process and the eyeball distance, and the like of the visual line detection device, it is possible to use techniques well known in the calculation method, a detailed description Is omitted.

下記式3を下記式1に代入することにより、下記式4により回転角θを求めることができる。更に、撮像センサ707上に投影された各々の特徴点の座標は、「′(ダッシュ)」をつけて、下記式5に書き換えられる。下記式5において、「β」は、集光レンズ706と眼球704との間の距離sze(図7(a))により決まる倍率であり、実際は角膜反射像d,eの間隔|xd′−xe′|の関数として求められる。 By substituting the following expression 3 into the following expression 1, the rotation angle θ X can be obtained from the following expression 4. Further, the coordinates of each feature point projected on the image sensor 707 are rewritten into the following equation 5 with “′ (dash)”. In the following formula 5, “β” is a magnification determined by the distance sze between the condensing lens 706 and the eyeball 704 (FIG. 7A), and actually the interval between the corneal reflection images d and e | xd′−xe It is obtained as a function of ′ |.

鉛直面(y−z面)で考えると、図7(b)に示すように、光源702,703により生じる角膜反射像は同位置に発生し、これを角膜反射像iとする。眼球704の光軸に対する鉛直方向の回転角θの算出方法は、水平面の場合とほぼ同じであるが、下記式3に対応する式のみが異なり、角膜705曲率中心Oのy座標yは、下記式6で表される。ここで、「δ」は、視線検出装置の設置方法や眼球距離等から幾何学的に求められる数値であり、その算出方法には周知の技術を用いることができるため、ここでの詳細な説明は省略する。よって、下記式6から、回転角θを下記式7により求めることができる。 Considering the vertical plane (yz plane), as shown in FIG. 7B, the corneal reflection image generated by the light sources 702 and 703 is generated at the same position, and this is defined as a corneal reflection image i. The calculation method of the rotation angle θ y in the vertical direction with respect to the optical axis of the eyeball 704 is almost the same as that in the horizontal plane, but only the expression corresponding to the following expression 3 is different, and the y coordinate y O of the cornea 705 curvature center O is , Represented by the following formula 6. Here, “δ y ” is a numerical value obtained geometrically from the installation method of the eye gaze detection device, the eyeball distance, and the like, and a well-known technique can be used for the calculation method. Description is omitted. Therefore, from the following formula 6, the rotation angle θ y can be obtained by the following formula 7.

[数1]
oc×sinθ=x−x …式1
=(x+x)/2 …式2
=(x+x)/2+δ …式3
θ=arcsin〔[x−{(x+x)/2+δ}]/oc〕 …式4
θ=arcsin〔[x′−{(x′+x′)/2+δ′}]/oc/β〕 …式5
=y+δ …式6
θ=arcsin〔[yc′−(yi′+δy′)]/oc/β〕 …式7
図8に示すように、瞳孔エッジの検出は、撮像センサ707の出力波形の立ち上がりxb′、立ち下がりxa′を利用する。また、角膜反射像d,eの座標は、鋭い立ち上がり部xd′,xe′を利用する。こうして、視線検出を行うことができる。そして、眼球704の光軸に対する回転角θx,θyにおいて、撮影者の顔が正面顔であるか否かを判別するための角度の閾値を設定し、例えば、回転角θx,θyの少なくとも一方が閾値の角度より大きい場合には、撮影者の顔は正面顔ではないと判別する。
[Equation 1]
oc × sin θ X = x C −x O Formula 1
x k = (x d + x e ) / 2 Equation 2
x O = (x d + x e ) / 2 + δ X Equation 3
θ X = arcsin [[x C − {(x d + x e ) / 2 + δ X }] / oc] Equation 4
theta X = arcsin [[x C '- {(x d' + x e ') / 2 + δ X'}] / oc / β ] Equation 5
y O = y i + δ y ( Formula 6)
θ y = arcsin [[yc ′ − (yi ′ + δy ′)] / oc / β] Equation 7
As shown in FIG. 8, the detection of the pupil edge uses the rise xb ′ and fall xa ′ of the output waveform of the image sensor 707. The coordinates of the cornea reflection images d and e use sharp rising portions xd ′ and xe ′. Thus, line-of-sight detection can be performed. Then, an angle threshold for determining whether or not the photographer's face is a front face is set at the rotation angles θx and θy with respect to the optical axis of the eyeball 704. For example, at least one of the rotation angles θx and θy is If the angle is larger than the threshold angle, it is determined that the photographer's face is not a front face.

以上の説明の通り、第3実施形態では、可動式表示装置103が開いているとき、つまり、撮影者の顔が下側から撮影されやすいために認識が成功し難い場合にのみ、認識に成功しやすい顔画像が取得できるか否かを判断する。そして、認識が成功し難い顔である場合には、警告を発して、正面顔を撮影するために撮影者に撮影方向へ顔を向けるように誘導する。これにより、撮影者の正面顔を撮影しやすくして、認識を成功しやすくすることができる。   As described above, in the third embodiment, the recognition is successful only when the movable display device 103 is open, that is, when the photographer's face is likely to be photographed from below and the recognition is difficult. It is determined whether or not a face image that can be easily acquired can be acquired. If the face is difficult to recognize, a warning is issued and the photographer is directed to turn the face in the shooting direction in order to photograph the front face. Thereby, it is possible to easily photograph the front face of the photographer and to facilitate the recognition.

また、可動式表示装置103が閉じている場合には、図10を参照して説明したように、撮影者の正面顔を撮影する可能性が高いため、可動式表示装置103の開きを検知したときにのみ、撮影者の視線検出を行う。こうして、可動式表示装置103が閉じているときには撮影者の視線検出を行わないようにすることにより、不要な処理を無くして、使い勝手を向上させることができる。   In addition, when the movable display device 103 is closed, as described with reference to FIG. 10, since it is highly possible to photograph the front face of the photographer, the opening of the movable display device 103 is detected. Only when the photographer's line of sight is detected. In this manner, when the movable display device 103 is closed, the user's line of sight is not detected, so that unnecessary processing can be eliminated and usability can be improved.

<その他の実施形態>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
<Other embodiments>
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

本発明は以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及びこのプログラムを記憶した記憶媒体は本発明を構成することになる。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

100,300,500 撮像装置
101 メインカメラ
102 サブカメラ
103 可動式表示装置
104 認識部
105 CPU
301 表示装置状態検出部
501 撮影者状態判別部
502 LED
503 スピーカ
100, 300, 500 Imaging device 101 Main camera 102 Sub camera 103 Movable display device 104 Recognition unit 105 CPU
301 Display device state detection unit 501 Photographer state determination unit 502 LED
503 Speaker

Claims (14)

主被写体を撮像する第1の撮像手段と、
前記第1の撮像手段を操作する撮影者を撮影する第2の撮像手段と、
前記第1の撮像手段および前記第2の撮像手段で撮像される映像を表示する可動式表示装置とを備え、前記第2の撮像手段が前記可動式表示装置に配置されてなる撮像装置であって、
少なくとも前記第2の撮像手段により撮影された前記撮影者の顔認識用画像に対して顔認識を行う認識手段と、
前記撮像装置の起動後、前記可動式表示装置に所定の表示が行われる前に、前記第2の撮像手段により前記撮影者の顔認識用画像を撮影するように前記第2の撮像手段を制御する制御手段とを備えることを特徴とする撮像装置。
First imaging means for imaging a main subject;
A second imaging means for photographing a photographer who operates the first imaging means;
A movable display device that displays an image captured by the first imaging unit and the second imaging unit, and the second imaging unit is disposed on the movable display device. And
Recognition means for performing face recognition on the photographer's face recognition image captured by at least the second imaging means;
After the imaging device is activated, the second imaging unit is controlled so that the second imaging unit captures an image for recognizing the face of the photographer before a predetermined display is performed on the movable display device. And an imaging device.
前記制御手段は、前記可動式表示装置に前記所定の表示が行われる前に前記第2の撮像手段により撮影した前記撮影者の顔認識用画像に対して前記認識手段による顔認識を行った結果、顔認識が成功しなかった場合に、前記第2の撮像手段で前記撮影者の顔認識用画像を再撮影し、再撮影された顔認識用画像に対して前記認識手段による顔認識を行うように前記第2の撮像手段および前記認識手段を制御することを特徴とする請求項1に記載の撮像装置。   The control means is a result of face recognition by the recognition means on the photographer's face recognition image taken by the second imaging means before the predetermined display is performed on the movable display device. When face recognition is not successful, the second image pickup unit re-photographs the photographer's face recognition image and performs face recognition by the recognition unit on the re-photographed face recognition image. The imaging apparatus according to claim 1, wherein the second imaging unit and the recognition unit are controlled as described above. 前記制御手段は、前記認識手段による顔認識が成功するまで、前記第2の撮像手段により前記撮影者の顔認識用画像を撮像して前記認識手段による顔認識を行うように前記第2の撮像手段および前記認識手段を制御することを特徴とする請求項2に記載の撮像装置。   The second imaging unit is configured to capture the photographer's face recognition image by the second imaging unit and perform face recognition by the recognition unit until face recognition by the recognition unit is successful. The image pickup apparatus according to claim 2, wherein a control unit and a recognition unit are controlled. 前記認識手段は前記第1の撮像手段により撮像された前記主被写体の顔認識用画像に対しても顔認識を行うものであって、
前記制御手段は、前記可動式表示装置に前記所定の表示が行われた後に、前記第1の撮像手段により前記主被写体の顔認識用画像を撮影するように前記第1の撮像手段を制御することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The recognizing unit performs face recognition on the face recognition image of the main subject imaged by the first imaging unit;
The control unit controls the first imaging unit so that the first imaging unit captures a face recognition image of the main subject after the predetermined display is performed on the movable display device. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
主被写体を撮像する第1の撮像手段と、
前記第1の撮像手段を操作する撮影者を撮影する第2の撮像手段と、
前記第1の撮像手段および前記第2の撮像手段で撮像される映像を表示する可動式表示装置とを備え、前記第2の撮像手段が前記可動式表示装置に配置されてなる撮像装置であって、
少なくとも前記第2の撮像手段により撮影された前記撮影者の顔認識用画像に対して顔認識を行う認識手段と、
前記可動式表示装置の状態を検出する検出手段と、
前記検出手段が検出した前記可動式表示装置の状態に応じて前記第2の撮像手段による前記撮影者の顔認識用画像を取得し、取得した画像に対して顔認識を行うように前記第2の撮像手段および前記認識手段を制御する制御手段とを備えることを特徴とする撮像装置。
First imaging means for imaging a main subject;
A second imaging means for photographing a photographer who operates the first imaging means;
A movable display device that displays an image captured by the first imaging unit and the second imaging unit, and the second imaging unit is disposed on the movable display device. And
Recognition means for performing face recognition on the photographer's face recognition image captured by at least the second imaging means;
Detecting means for detecting the state of the movable display device;
According to the state of the movable display device detected by the detection means, the second imaging means acquires the photographer's face recognition image, and performs the face recognition on the acquired image. An image pickup apparatus comprising: an image pickup means; and a control means for controlling the recognition means.
前記制御手段は、前記検出手段により前記可動式表示装置の状態が変化したことを検出した場合に、前記第2の撮像手段により前記撮影者の顔認識用画像を取得し、取得した画像に対して顔認識を行うように前記第2の撮像手段および前記認識手段を制御することを特徴とする請求項5に記載の撮像装置。   When the control unit detects that the state of the movable display device has changed by the detection unit, the control unit acquires the photographer's face recognition image by the second imaging unit, and the acquired image The imaging apparatus according to claim 5, wherein the second imaging unit and the recognition unit are controlled so as to perform face recognition. 前記検出手段は、前記可動式表示装置の動きを検出することを特徴とする請求項5又は6に記載の撮像装置。   The imaging device according to claim 5, wherein the detection unit detects a movement of the movable display device. 前記制御手段は、前記検出手段が前記可動式表示装置の動きを検出した場合に、前記第2の撮像手段による前記撮影者の顔認識用画像の撮影と、撮影した画像に対する顔認識とを、前記認識手段による顔認識に成功するまで行うように前記第2の撮像手段および前記認識手段を制御することを特徴とする請求項7記載の撮像装置。   When the detection means detects the movement of the movable display device, the control means performs the photographing of the photographer's face recognition image by the second imaging means and the face recognition for the photographed image. The imaging apparatus according to claim 7, wherein the second imaging unit and the recognition unit are controlled so as to be performed until face recognition by the recognition unit is successful. 主被写体を撮像する第1の撮像手段と、
前記第1の撮像手段を操作する撮影者を撮影する第2の撮像手段と、
前記第1の撮像手段および前記第2の撮像手段で撮像される映像を表示する可動式表示装置とを備え、前記第2の撮像手段が前記可動式表示装置に配置されてなる撮像装置であって、
少なくとも前記第2の撮像手段により撮影された前記撮影者の顔認識用画像に対して顔認識を行う認識手段と、
前記可動式表示装置の状態を検出する検出手段と、
前記第2の撮像手段により撮影された前記撮影者の顔認識用画像における前記撮影者の状態を判別する判別手段と、
前記認識手段による顔認識が成功しない場合に所定の警告を発する警告手段と、
前記検出手段の結果に応じて前記判別手段による判別を行うか前記認識手段による顔認識を行うかを判断し、前記判別手段の結果に応じて前記認識手段による顔認識を行うか前記警告手段による警告を行うかを判断する制御手段とを備えることを特徴とする撮像装置。
First imaging means for imaging a main subject;
A second imaging means for photographing a photographer who operates the first imaging means;
A movable display device that displays an image captured by the first imaging unit and the second imaging unit, and the second imaging unit is disposed on the movable display device. And
Recognition means for performing face recognition on the photographer's face recognition image captured by at least the second imaging means;
Detecting means for detecting the state of the movable display device;
Discriminating means for discriminating the state of the photographer in the face recognition image of the photographer photographed by the second imaging means;
Warning means for issuing a predetermined warning when face recognition by the recognition means is not successful;
It is determined whether to perform discrimination by the discrimination unit or face recognition by the recognition unit according to the result of the detection unit, and whether to perform face recognition by the recognition unit according to the result of the discrimination unit or by the warning unit An image pickup apparatus comprising: control means for determining whether to perform a warning.
前記制御手段は、前記検出手段が前記可動式表示装置が前記撮像装置の本体に収納された状態にあることを検出したときに前記認識手段による顔認識を行い、前記検出手段が前記可動式表示装置が前記撮像装置の本体に収納された状態にないことを検出したときに前記判別手段による判別を行うように、前記認識手段および前記判別手段を制御することを特徴とする請求項9記載の撮像装置。   The control means performs face recognition by the recognition means when the detection means detects that the movable display device is housed in the main body of the imaging device, and the detection means performs the movable display. 10. The recognizing unit and the determining unit are controlled so as to perform determination by the determining unit when it is detected that the apparatus is not stored in a main body of the imaging apparatus. Imaging device. 前記判別手段は、前記第2の撮像手段により撮影された前記撮影者の顔認識用画像における前記撮影者の顔が正面顔か否かを判別することを特徴とする請求項9又は10に記載の撮像装置。   11. The determination unit according to claim 9, wherein the determination unit determines whether or not the photographer's face in the image for recognizing the photographer's face photographed by the second imaging unit is a front face. Imaging device. 前記判別手段は、前記撮影者の顔が正面顔か否かの判別を視線検出により行うことを特徴とする請求項11に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the determination unit determines whether or not the photographer's face is a front face by detecting a line of sight. 前記制御手段は、前記判別手段が前記撮影者の顔が正面顔であると判別したときに前記認識手段による顔認識を行い、前記判別手段が前記撮影者の顔が正面顔ではないと判別したときに前記警告手段により警告が発せられるように前記認識手段および前記警告手段を制御することを特徴とする請求項11又は12に記載の撮像装置。   The control means performs face recognition by the recognition means when the determination means determines that the photographer's face is a front face, and the determination means determines that the photographer's face is not a front face. The imaging apparatus according to claim 11 or 12, wherein the recognition unit and the warning unit are controlled so that a warning is sometimes issued by the warning unit. 前記警告手段は、前記撮影者に対して前記第2の撮像手段の方向へ前記撮影者の顔を向かせるように誘導する警告を発することを特徴とする請求項9乃至13のいずれか1項に記載の撮像装置。   The warning means issues a warning for guiding the photographer to face the photographer in the direction of the second imaging means. The imaging device described in 1.
JP2013269329A 2013-12-26 2013-12-26 Imaging apparatus Pending JP2015126369A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013269329A JP2015126369A (en) 2013-12-26 2013-12-26 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013269329A JP2015126369A (en) 2013-12-26 2013-12-26 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2015126369A true JP2015126369A (en) 2015-07-06

Family

ID=53536794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269329A Pending JP2015126369A (en) 2013-12-26 2013-12-26 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2015126369A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037375A (en) * 2015-08-07 2017-02-16 キヤノン株式会社 Imaging apparatus and control method thereof
KR20190083920A (en) * 2018-01-05 2019-07-15 엘지전자 주식회사 Electric device and method for controlling the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037375A (en) * 2015-08-07 2017-02-16 キヤノン株式会社 Imaging apparatus and control method thereof
KR20190083920A (en) * 2018-01-05 2019-07-15 엘지전자 주식회사 Electric device and method for controlling the same
KR102446769B1 (en) * 2018-01-05 2022-09-23 엘지전자 주식회사 Electric device and method for controlling the same

Similar Documents

Publication Publication Date Title
US10205883B2 (en) Display control method, terminal device, and storage medium
US10075629B2 (en) Electronic device for capturing images while user looks directly at camera
US20140341473A1 (en) Apparatus and method for enhancing user recognition
JP2010086336A (en) Image control apparatus, image control program, and image control method
KR20180109109A (en) Method of recognition based on IRIS recognition and Electronic device supporting the same
JP2013076924A5 (en)
JP4663700B2 (en) Imaging apparatus and imaging method
JP2010067062A (en) Input system and method
EP3188075B1 (en) Apparatus and method for recognizing hand gestures in a virtual reality headset
TW201416998A (en) User recognition and confirmation device and method, and central control system for vehicles using the same
JP2016036390A (en) Information processing unit, focal point detection method and focal point detection program
JP2007163864A (en) Display control apparatus, display control method, display control program, and display control program recording medium
JP2015041323A (en) Processor
JP6507252B2 (en) DEVICE OPERATION DEVICE, DEVICE OPERATION METHOD, AND ELECTRONIC DEVICE SYSTEM
JP2010244322A (en) Communication character device and program therefor
JP2011095985A (en) Image display apparatus
KR20190085787A (en) Electronic device and method for processing image of the same
US9400920B2 (en) Display screen controlling apparatus in mobile terminal and method thereof
US11496668B2 (en) Image capture apparatus and control method thereof
JP2015126369A (en) Imaging apparatus
EP2657886B1 (en) Method and apparatus for recognizing three-dimensional object
JP2009205203A (en) Iris authentication device
US11082615B2 (en) Mobile terminal device that generates picture where person&#39;s eye direction in shot image has been modified
JP2016139353A (en) Image determination system and image determination method
WO2018185830A1 (en) Information processing system, information processing method, information processing device, and program