JP2016019092A - Information processor, information processing method, information processing system and program - Google Patents

Information processor, information processing method, information processing system and program Download PDF

Info

Publication number
JP2016019092A
JP2016019092A JP2014139750A JP2014139750A JP2016019092A JP 2016019092 A JP2016019092 A JP 2016019092A JP 2014139750 A JP2014139750 A JP 2014139750A JP 2014139750 A JP2014139750 A JP 2014139750A JP 2016019092 A JP2016019092 A JP 2016019092A
Authority
JP
Japan
Prior art keywords
image
information processing
face
processing apparatus
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014139750A
Other languages
Japanese (ja)
Inventor
孝英 大谷
Takahide Otani
孝英 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014139750A priority Critical patent/JP2016019092A/en
Publication of JP2016019092A publication Critical patent/JP2016019092A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor capable of allowing a user to perform satisfactory self-photographing close to a camera eye line.SOLUTION: The information processor includes a control section that generates an eye line correction image in which an image of a part of an eye in one image based on an image of a part of an eye in the other image in two images which include a face of a person taken from different positions. The control section replaces, in the two images, the partial image of the eye in the one image which is taken from the relatively lower position with the partial image of the eye in the other image which is taken from the relatively upper position to generate an image with corrected eye line.SELECTED DRAWING: Figure 1

Description

本技術は、カメラによって撮影されたユーザの顔画像を処理する機能を有する情報処理装置、情報処理方法、情報処理システムおよびプログラムに関する。   The present technology relates to an information processing apparatus, an information processing method, an information processing system, and a program having a function of processing a user's face image captured by a camera.

携帯電話、スマートフォンなどの携帯端末の楽しみ方の1つとして自分撮りがある。すなわち、携帯端末の多くにはカメラが搭載され、そのカメラによって撮影された画像をディスプレイの画面にリアルタイムで表示させることができる。このためユーザは、ディスプレイの画面で自分の顔を確認しながら、所望の表情の自分の顔を容易に撮影することができる。   Self-portrait is one way to enjoy mobile terminals such as mobile phones and smartphones. That is, many mobile terminals are equipped with a camera, and an image photographed by the camera can be displayed on a display screen in real time. Therefore, the user can easily photograph his / her face with a desired expression while checking his / her face on the display screen.

通常、カメラはディスプレイの画面の位置から外れた位置に配置される。このため、ディスプレイの画面を見ながら撮影されたユーザの顔の画像は、目線がわずかにずれたものとなる。   Usually, the camera is arranged at a position deviating from the position of the display screen. For this reason, the image of the user's face photographed while looking at the display screen is slightly shifted in line of sight.

被写体であるユーザの目線ずれを補正により修正する技術は既に知られている(例えば、特許文献2参照)。この特許文献2の技術では、カメラ付携帯電話機において、登録済みのカメラ目線画像から算出されたユーザの黒目の中心と、上カメラおよび下カメラによって各々撮影されたユーザの顔画像から顔の表示位置を修正した画像における黒目の中心とのずれ量から目線のずれ量が算出される。この目線ずれ量に基づいて、カメラ目線相当となるように目線を修正した画像が生成される。   A technique for correcting a user's gaze shift of a subject by correction is already known (see, for example, Patent Document 2). In the technique of Patent Document 2, in the camera-equipped mobile phone, the face display position is calculated from the center of the user's black eye calculated from the registered camera line-of-sight image and the user's face image captured by the upper camera and the lower camera, respectively. The amount of eyeline deviation is calculated from the amount of deviation from the center of the black eye in the corrected image. Based on the amount of line-of-sight deviation, an image in which the line of sight is corrected so as to be equivalent to the line of sight of the camera is generated.

特開2012−114557号公報(段落[0051])JP 2012-114557 A (paragraph [0051])

スマートフォンなどの携帯端末に内蔵されたカメラを使って自分の顔を撮影した場合、目線が同様の向きに同じ程度にずれた顔ばかりが撮影される傾向がある。ユーザによっては、自分のベストショットを撮るために様々な表情での撮影を試みる。しかし、上記のような制約があるため、撮影できるカメラ目線の顔の表情のバリエーションに制限が生じるなど、カメラ目線に近い自分撮りを良好に行うには、まだまだ不十分な点がある。   When a person's face is photographed using a camera built in a portable terminal such as a smartphone, only faces whose eyes are shifted in the same direction in the same direction tend to be photographed. Some users try to shoot with various expressions to take their best shot. However, due to the above-mentioned limitations, there are still insufficient points for good self-portrait close to the camera line of view, such as restrictions on variations in facial expression of the camera line of view that can be taken.

以上のような事情に鑑み、本技術の目的は、カメラ目線に近い自分撮りを良好に行うことのできる情報処理装置、情報処理方法、情報処理システムおよびプログラムを提供することにある。   In view of the circumstances as described above, it is an object of the present technology to provide an information processing apparatus, an information processing method, an information processing system, and a program that can satisfactorily take a self-portrait close to the camera line of sight.

上記の課題を解決するために、本技術に係る第1の形態の情報処理装置は、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を具備する。   In order to solve the above-described problem, the information processing apparatus according to the first embodiment of the present technology applies an image of an eye portion of one of the two images including a human face photographed from different positions. And a control unit that generates a line-of-sight correction image in which the image of the eye portion in the other image is changed.

上記の第1の形態の情報処理装置において、前記制御部は、前記被写体である人物の顔の縦方向において異なる位置から第1の撮像部および第2の撮像部によって撮影された前記人物の顔を含む2つの画像を取得するように構成されたものであってよい。   In the information processing apparatus according to the first aspect, the control unit is configured to capture the person's face photographed by the first imaging unit and the second imaging unit from different positions in the vertical direction of the face of the person who is the subject. May be configured to acquire two images.

上記の第1の形態の情報処理装置において、前記制御部は、前記取得した2つの画像のうち、相対的に下の位置から撮影された一方の前記画像の目の部分画像を、前記相対的に上の位置から撮影された他方の画像の目の部分画像と置き換えた前記目線補正画像を生成するように構成されたものであってよい。   In the information processing apparatus according to the first aspect, the control unit may extract a partial image of the eye of one of the two images acquired from a relatively lower position as the relative image. It may be configured to generate the line-of-sight correction image in which the partial image of the other image captured from the upper position is replaced.

上記の第1の形態の情報処理装置において、前記第1の撮像部は、前記被写体である人物の顔の縦方向において上側の撮像部であり、前記第2の撮像部は、前記被写体である人物の顔の縦方向において下側の撮像部であり、前記第1の撮像部は撮影画像の画質が前記第2の撮像部よりも高いものであってよい。   In the information processing apparatus according to the first aspect, the first imaging unit is an upper imaging unit in the vertical direction of the face of the person who is the subject, and the second imaging unit is the subject. The image capturing unit may be a lower image capturing unit in the vertical direction of the human face, and the first image capturing unit may have a higher quality of the captured image than the second image capturing unit.

上記の第1の形態の情報処理装置において、前記制御部は、前記取得した2つの画像の画調を合せるように、少なくとも一方の画像に対して信号処理を行わせるように構成されたものであってよい。   In the information processing apparatus according to the first aspect, the control unit is configured to perform signal processing on at least one of the images so as to adjust the tone of the two acquired images. It may be.

上記の第1の形態の情報処理装置において、前記制御部は、前記目線補正画像と、前記取得した2つの画像のうち少なくともいずれか一方を表示部に同時に表示させるように構成されたものであってよい。   In the information processing apparatus according to the first aspect, the control unit is configured to cause the display unit to simultaneously display at least one of the line-of-sight correction image and the acquired two images. It's okay.

上記の第1の形態の情報処理装置において、前記第1の撮像部が、前記情報処理装置に内蔵され、前記第2の撮像部が、前記情報処理装置に着脱自在に取れ付けられる別体の撮像部であってよい。   In the information processing apparatus according to the first aspect, the first imaging unit is incorporated in the information processing apparatus, and the second imaging unit is a separate unit that is detachably attached to the information processing apparatus. It may be an imaging unit.

本技術に係る第2の形態の情報処理装置は、異なる位置から人物の顔を撮影する撮像ユニットと、前記撮像ユニットによって撮影された前記人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部とを具備する。   An information processing apparatus according to a second embodiment of the present technology includes an imaging unit that captures a person's face from different positions, and two images including the person's face captured by the imaging unit. And a control unit that generates a line-of-sight correction image in which the image of the eye part in the other image is changed based on the image of the eye part.

本技術に係る第3の形態の情報処理方法は、制御部が、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する、というものである。   In the information processing method according to the third aspect of the present technology, the control unit performs processing based on the image of the eye portion of one of the two images including the face of the person photographed from different positions. A line-of-sight correction image is generated by changing the image of the eye portion in the image.

本技術に係る第4の形態の情報処理システムは、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を具備する。   The information processing system according to the fourth aspect of the present technology is based on an image of an eye portion of one of the two images including the face of a person photographed from different positions. A control unit that generates a line-of-sight correction image obtained by changing the image of the part.

本技術に係る第5の形態のプログラムは、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部としてコンピュータを機能させるプログラムである。   The program according to the fifth aspect of the present technology is based on an image of an eye part in one image of two images including a human face photographed from different positions, and the eye part in the other image Is a program that causes a computer to function as a control unit that generates a line-of-sight correction image obtained by changing the image.

以上のように、本技術によれば、カメラ目線に近い自分撮りを良好に行うことができる。
なお、この効果は本技術の効果として限定されるものではなく、本開示中に記載されたいずれかの効果が本技術の効果であってよい。
As described above, according to the present technology, it is possible to satisfactorily take a self-portrait close to the camera line of sight.
In addition, this effect is not limited as an effect of this technique, Any effect described in this indication may be an effect of this technique.

本技術に係る第1の実施形態の顔画像処理システムの全体構成を示す図である。It is a figure showing the whole face image processing system composition of a 1st embodiment concerning this art. 図1の顔画像処理システムにおいて2機のカメラ装置10,20によって各々撮像されたユーザUの顔画像から目線補正が行われた合成画像が得られるまでの動作を画像ベースで示す図である。It is a figure which shows operation | movement until a synthetic | combination image by which eye line correction | amendment was performed from the face image of the user U each imaged by the two camera apparatuses 10 and 20 in the face image processing system of FIG. 図1の顔画像処理システムにおいて2機のカメラ装置10,20によって各々撮像されたユーザUの顔画像から目線補正が行われた合成画像が得られるまでの別の動作を画像ベースで示す図である。FIG. 7 is a diagram showing another operation on an image basis until a composite image in which eye line correction is performed is obtained from the face images of the user U captured by the two camera devices 10 and 20 in the face image processing system of FIG. 1. is there. 本技術に係る第2の実施形態の顔画像処理システム1Aの構成を示す斜視図である。It is a perspective view showing composition of face image processing system 1A of a 2nd embodiment concerning this art. 図4の顔画像処理システム1Aにおいて携帯端末40Aに外付けカメラ10Aを装着した状態を示す斜視図である。FIG. 5 is a perspective view showing a state in which an external camera 10A is mounted on a portable terminal 40A in the face image processing system 1A of FIG. 携帯端末40Aのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of 40 A of portable terminals. 外付けカメラ10Aの外観を示す斜視図である。It is a perspective view which shows the external appearance of 10 A of external cameras. 図7の外付けカメラ10Aの撮影状態を示す斜視図である。It is a perspective view which shows the imaging | photography state of 10 A of external cameras of FIG. 図7の外付けカメラ10Aのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of 10 A of external cameras of FIG. 図4の顔画像処理システム1Aを用いてユーザUが自分の顔を撮影する第1の形態を示す図である。It is a figure which shows the 1st form which the user U image | photographs his / her face using the face image processing system 1A of FIG. 図4の顔画像処理システム1Aを用いてユーザUが自分の顔を撮影する第2の形態を示す図である。It is a figure which shows the 2nd form which the user U image | photographs his / her face using the face image processing system 1A of FIG. 4機のカメラを用いた変形例を説明する図である。It is a figure explaining the modification using four cameras.

以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
Hereinafter, embodiments according to the present technology will be described with reference to the drawings.
<First Embodiment>

[顔画像処理システムの全体構成]
図1は、本技術に係る第1の実施形態の顔画像処理システムの全体構成を示す図である。
この顔画像処理システム1は、2機のカメラ装置10,20(撮像ユニット)と、撮影時にユーザUが目線Eを合せる対象である目線対象物30と、情報処理装置40とを備える。
[Overall configuration of face image processing system]
FIG. 1 is a diagram illustrating an overall configuration of a face image processing system according to the first embodiment of the present technology.
The face image processing system 1 includes two camera apparatuses 10 and 20 (imaging units), a line-of-sight object 30 that is a target for the user U to match the line of sight E during shooting, and an information processing apparatus 40.

目線対象物30は、より具体的には、2機のカメラ装置10,20の少なくとも一方により撮影されたユーザUの顔の画像を表示するディスプレイの画面などであってよい。但し、目線対象物30は、必ずしもディスプレイの画面である必要はない。目線対象物30は、例えばミラーであってもよい。あるいは、ユーザUの目線Eを誘導する何らかのマークを付けた物体であってもよい。なお、本技術の構成において、目線対象物30は必須ではない。   More specifically, the line-of-sight object 30 may be a screen of a display that displays an image of the face of the user U taken by at least one of the two camera apparatuses 10 and 20. However, the line-of-sight object 30 is not necessarily a display screen. The line-of-sight object 30 may be a mirror, for example. Alternatively, an object with some mark that guides the user's U's line of sight E may be used. In the configuration of the present technology, the line-of-sight object 30 is not essential.

2機のカメラ装置10,20は、ユーザUの顔の縦方向において異なる2つの位置からユーザUの顔を撮影可能なように配置される。すなわち、カメラ装置10は、前記縦方向において相対的に上の位置からユーザUの顔を撮影し、カメラ装置20は、前記縦方向において相対的に下の位置からユーザUの顔を撮影するように配置される。より具体的には、例えば、2機のカメラ装置10,20は、目線対象物30に目線Eを合せたユーザUの顔をユーザUの目線Eの高さ位置から上に若干ずれた高さ位置とユーザUの目線Eの高さ位置から下に若干ずれた高さ位置から撮像することが可能なように各々配置される。ユーザUの目線Eが真正面を向いている場合、ユーザUの顔を一方のカメラ装置10によって目線Eよりやや高い位置から撮影すると、撮影された画像におけるユーザUの顔全体は目線Eを含めやや下を向いたものとなる。また、ユーザUの顔を目線Eよりやや低い高さから他方のカメラ装置20で撮影すると、撮像された画像におけるユーザUの顔全体は目線Eを含めやや上を向いたものとなる。   The two camera apparatuses 10 and 20 are arranged so that the user U's face can be photographed from two different positions in the vertical direction of the user U's face. That is, the camera device 10 captures the face of the user U from a relatively upper position in the vertical direction, and the camera device 20 captures the face of the user U from a relatively lower position in the vertical direction. Placed in. More specifically, for example, the two camera devices 10 and 20 are configured such that the face of the user U who is aligned with the line-of-sight object 30 is slightly shifted upward from the height position of the line of sight E of the user U. It arrange | positions so that it can image from the height position which shifted | deviated a little from the position and the height position of the user's U eyes | visual_axis E, respectively. When the user E's line of sight E is facing directly in front, when the user U's face is photographed from a position slightly higher than the line of sight E by one camera device 10, the entire face of the user U in the photographed image includes the line of sight E somewhat. It looks down. When the other camera device 20 captures the face of the user U from a height slightly lower than the line of sight E, the entire face of the user U in the captured image is slightly upward including the line of sight E.

以降の説明において、ユーザUの顔を目線Eよりやや高い位置から撮影するカメラ装置10を「上カメラ装置10」、ユーザUの顔を目線Eよりやや低い位置から撮影するカメラ装置20を「下カメラ装置20」と本明細書で呼ぶことにする。   In the following description, the “upper camera device 10” is the camera device 10 that captures the face of the user U from a position slightly higher than the line of sight E, and the “downward” is the camera device 20 that captures the face of the user U from a position slightly lower than the line of sight E. It will be referred to herein as “camera device 20”.

各々のカメラ装置10,20は、撮影レンズと、撮像素子と、撮像素子の出力を現像する現像処理部と、コントローラとを備える。各々のカメラ装置10、20は、いずれも情報処理装置40の筐体41(図4参照)に撮像ユニットとして搭載されたカメラであってよい。あるいは、一方のカメラが、情報処理装置40に内蔵されたカメラで、もう一方が情報処理装置40に着脱可能なカメラ、あるいは情報処理装置に対して独立して配置されたカメラであってもよい。あるいは各々のカメラ装置10,20は、情報処理装置40に対して各々独立して設置されたカメラであってよい。
各々のカメラ装置10,20のより具体的な構成については、第2の実施形態で説明する。
Each of the camera devices 10 and 20 includes a photographing lens, an image sensor, a development processing unit that develops an output of the image sensor, and a controller. Each of the camera devices 10 and 20 may be a camera mounted as an imaging unit on the housing 41 (see FIG. 4) of the information processing device 40. Alternatively, one camera may be a camera built in the information processing apparatus 40, and the other camera may be a camera that can be attached to and detached from the information processing apparatus 40, or a camera that is disposed independently of the information processing apparatus. . Alternatively, each of the camera devices 10 and 20 may be a camera installed independently with respect to the information processing device 40.
A more specific configuration of each of the camera devices 10 and 20 will be described in the second embodiment.

情報処理装置40は、2機のカメラ装置10,20と有線もしくは無線で通信するための通信インタフェースと、CPU(Central Processing Unit)と、メモリと、ストレージと、ユーザのための入力部などを備える。情報処理装置40のCPUは、通信インタフェースを通じて接続された2機のカメラ装置を制御し、2機のカメラ装置10,20により各々撮影された2つの画像の合成処理などを行う。   The information processing apparatus 40 includes a communication interface for communicating with the two camera apparatuses 10 and 20 in a wired or wireless manner, a CPU (Central Processing Unit), a memory, a storage, an input unit for a user, and the like. . The CPU of the information processing device 40 controls the two camera devices connected through the communication interface, and performs a process of combining two images captured by the two camera devices 10 and 20, respectively.

なお、情報処理装置40は、具体的には、例えば、スマートフォン、パーソナルコンピュータ、あるいは、2機のカメラ装置10,20とネットワークを通じて接続されたサーバ装置などであってよい。
情報処理装置40のより具体的な構成については第2の実施形態で説明する。
Specifically, the information processing device 40 may be, for example, a smartphone, a personal computer, or a server device connected to the two camera devices 10 and 20 through a network.
A more specific configuration of the information processing apparatus 40 will be described in a second embodiment.

[画像合成による目線補正]
上記の顔画像処理システム1において情報処理装置40では、画像の合成処理の1つとして目線補正を行うことが可能である。
目線補正とは、次のようなものである。
[Gaze correction by image composition]
In the face image processing system 1 described above, the information processing apparatus 40 can perform eye line correction as one of the image synthesis processes.
The line-of-sight correction is as follows.

ここでは情報処理装置40としてスマートフォンを用いた場合の目線補正について説明する。例えば、スマートフォンに内蔵されたカメラでユーザが自分の顔を撮影するとき、ユーザは目線対象物であるディスプレイ画面にリアルタイムに表示された自分の顔を確認しながら、任意のタイミングでシャッターボタンを操作する。すると、その時点で撮影(表示)された画像が静止画として切り出されてストレージなどに保存される。多くのスマートフォンでは、カメラは筐体の前面においてディスプレイの画面が配置された位置から外れた位置、例えばユーザから見てディスプレイの画面よりも上の位置に配置されている。このため、ユーザが自分の顔を撮影すると、撮影された自分の顔画像は、目線の向きを含め顔全体がやや下を向いたものとなる。   Here, eye line correction when a smartphone is used as the information processing apparatus 40 will be described. For example, when a user shoots his / her face with the camera built in the smartphone, the user operates the shutter button at any time while checking his / her face displayed in real time on the display screen, which is the object of eyesight. To do. Then, the image shot (displayed) at that time is cut out as a still image and stored in a storage or the like. In many smartphones, the camera is arranged at a position off the position where the display screen is arranged on the front surface of the housing, for example, a position above the display screen when viewed from the user. For this reason, when the user captures his / her face, the captured face image is such that the entire face including the direction of the line of sight faces slightly downward.

一般的には、目線はやや上に向けたほうがポジティブ感があり印象的な目に見えると言われている。ユーザから見てディスプレイの画面よりも下の位置にカメラを配置すれば上向き目線の顔を撮影できるが、この場合、顔全体がやや上を向いた画像となってしまうため、上目線が引き立ちにくい。   In general, it is said that if you look slightly upward, you will have a positive feeling and an impressive eye. If you place the camera at a position below the display screen as seen by the user, you can shoot a face with an upward line of sight, but in this case, the entire face will be slightly upward and the upper line of sight will not stand out. .

なお、ユーザのニーズは様々であり、上目線よりも下目線の顔を撮影したい場合もある。この場合も、ユーザから見てディスプレイの画面よりもやや上の位置に配置されたカメラでユーザの顔を撮影しただけでは、単に顔全体をやや下に向けただけの顔画像となり、下目線が引き立つ顔画像とならない。   Note that there are various user needs, and there are cases where it is desired to photograph a face with a lower eyeline than an upper eyeline. In this case as well, if the user's face is photographed with a camera positioned slightly above the display screen as seen from the user, the face image is simply the face facing slightly downward, and the lower eye line is The face image does not stand out.

上記のように、ユーザが目線対象物30を見ながら、その目線対象物30の上や下に配置されたカメラでユーザの顔画像を撮影する環境においては、目線が同様の向きに同じ程度にずれた顔はがりが撮影される傾向があるため、撮影できるカメラ目線の顔の表情のバリエーションに制限が生じるなど、カメラ目線に近い自分撮りを良好に行うには、まだまだ不十分な点がある。   As described above, in an environment in which a user looks at the target object 30 and shoots a user's face image with a camera disposed above or below the target object 30, the target line is in the same direction in the same direction. Because there is a tendency to take off-faced flare, there are limitations on the facial expression variations that can be taken, such as limitations on the facial expression of the face looking at the camera. .

本技術に係る第1の実施形態の顔画像処理システム1は、このような課題を解決しようとするものである。但し、本技術の解決すべき課題はこれに限定されない。   The face image processing system 1 according to the first embodiment of the present technology is intended to solve such a problem. However, the problem to be solved by the present technology is not limited to this.

[顔画像処理システムによる目線補正]
次に、本実施形態の顔画像処理システム1による目線補正の動作の概要を説明する。
[Gaze correction by facial image processing system]
Next, an outline of the eye line correction operation by the face image processing system 1 of the present embodiment will be described.

(1)情報処理装置40のCPU(制御部)は、メモリに格納されたアプリケーションプログラムに従って、次のように制御を行う。   (1) The CPU (control unit) of the information processing apparatus 40 performs control as follows according to the application program stored in the memory.

図1において、まず、情報処理装置40のCPUは2機のカメラ装置10,20に撮像を開始させる。2機のカメラ装置10,20において、上カメラ装置10はユーザUの顔を目線Eよりやや高い位置から撮影するように設置され、下カメラ装置20はユーザUの顔を目線Eよりやや低い位置から撮影するように設置されている。   In FIG. 1, first, the CPU of the information processing apparatus 40 causes the two camera apparatuses 10 and 20 to start imaging. In the two camera devices 10 and 20, the upper camera device 10 is installed so as to photograph the face of the user U from a position slightly higher than the line of sight E, and the lower camera device 20 is a position slightly lower than the line of sight E. It is installed to shoot from.

(2)撮影時のユーザUの目線Eは、2機のカメラ装置10,20の間に配置された目線対象物30、例えばディスプレイの画面にあることとする。ディスプレイの画面には、例えば、上カメラ装置10または下カメラ装置20によって撮影中の自分の顔画像が動画像として表示される。あるいは、2機のカメラ装置10,20各々によって撮影された動画像が同時に表示されてもよい。   (2) It is assumed that the line of sight E of the user U at the time of shooting is on a line-of-sight object 30, for example, a display screen, disposed between the two camera devices 10, 20. On the display screen, for example, the face image of the subject being photographed by the upper camera device 10 or the lower camera device 20 is displayed as a moving image. Or the moving image image | photographed by each of the two camera apparatuses 10 and 20 may be displayed simultaneously.

(3)ユーザUは、ディスプレイの画面を通して自分の顔の動画像を確認しつつ、任意のタイミングで静止画像の取り込みの指示を情報処理装置40の入力部を操作して入力する。   (3) The user U operates the input unit of the information processing apparatus 40 to input a still image capturing instruction at an arbitrary timing while confirming the moving image of his / her face through the display screen.

(4)情報処理装置40のCPUは、ユーザUからの静止画像の取り込みの指示を受けると、2機のカメラ装置10,20に静止画像の取り込みを指示する制御命令を供給する。   (4) When the CPU of the information processing apparatus 40 receives a still image capturing instruction from the user U, it supplies a control command for instructing the two camera apparatuses 10 and 20 to capture a still image.

(5)2機のカメラ装置は各々、この制御命令に従って、ユーザUの顔の動画像から静止画を切り出し、情報処理装置40に伝送する。   (5) Each of the two camera devices cuts out a still image from the moving image of the face of the user U and transmits it to the information processing device 40 in accordance with this control command.

図2は、2機のカメラ装置10,20によって各々撮像されたユーザUの顔画像から目線補正が行われた合成画像が得られるまでの動作を画像ベースで示す図である。   FIG. 2 is a diagram illustrating an operation based on an image base until a composite image in which eye line correction is performed is obtained from the face image of the user U captured by the two camera apparatuses 10 and 20.

101は上カメラ装置10によって撮影された顔画像(静止画)、201は下カメラ装置20によって撮影された顔画像(静止画)である。上カメラ装置10によって撮影された顔画像101におけるユーザUの顔は目線を含めてやや下向きとなり、下カメラ装置20によって撮影された顔画像201におけるユーザUの顔は目線を含めてやや上向きとなる。   101 is a face image (still image) photographed by the upper camera device 10, and 201 is a face image (still image) photographed by the lower camera device 20. The face of the user U in the face image 101 photographed by the upper camera device 10 is slightly downward including the line of sight, and the face of the user U in the face image 201 photographed by the lower camera device 20 is slightly upward including the line of sight. .

(6)情報処理装置40のCPUは、2機のカメラ装置10,20より各々撮像された顔画像101、201から目の部分の画像102、202を検出する。ここで、顔画像における目の部分の画像102、202の検出には、例えば、統計的学習手法により、多数の人の顔画像を解析して得られた目の部分の画像の特徴データを用いるなどして行われる。   (6) The CPU of the information processing device 40 detects the eye images 102 and 202 from the face images 101 and 201 respectively captured by the two camera devices 10 and 20. Here, for the detection of the eye images 102 and 202 in the face image, for example, the feature data of the eye image obtained by analyzing the face images of a large number of people by a statistical learning method is used. And so on.

なお、情報処理装置40のCPUは、目の部分の画像の検出において、フォーカスずれなどによって、その検出が失敗に終った場合にはエラーをユーザUに例えば表示、音声などによって通知する。   Note that the CPU of the information processing device 40 notifies the user U of an error, for example, by display or sound when the detection of the image of the eye portion fails due to a focus shift or the like.

(7)情報処理装置40のCPUは、下カメラ装置20により撮影された顔画像201において検出された目の部分の画像202を目線補正用の画像203として切り出す。ここで目線補正用の画像203は、例えば、両目を含む矩形の範囲の画像などである。   (7) The CPU of the information processing apparatus 40 cuts out the image 202 of the eye portion detected in the face image 201 photographed by the lower camera apparatus 20 as the image 203 for eye line correction. Here, the line-of-sight correction image 203 is, for example, an image in a rectangular range including both eyes.

(8)情報処理装置40のCPUは、この目線補正用の画像203を、上カメラ装置10により撮影された顔画像101において検出された目の部分の画像102と置き換えた目線補正画像を生成する。すなわち、下カメラ装置20により撮影された顔画像201から切り出された目線補正用の画像203と、上カメラ装置10により撮影された顔画像において検出された目の部分の画像102以外の画像103とを画素毎に加算する。この際、情報処理装置40のCPUは、画像の繋ぎ目を目立たなくするために、繋ぎ目部分に対してアルファブレンドなどの合成処理を行ってもよい。   (8) The CPU of the information processing apparatus 40 generates a line-of-sight correction image in which the line-of-sight correction image 203 is replaced with the eye part image 102 detected in the face image 101 photographed by the upper camera apparatus 10. . That is, the eye-line correction image 203 cut out from the face image 201 photographed by the lower camera device 20, and the image 103 other than the eye portion image 102 detected in the face image photographed by the upper camera device 10. For each pixel. At this time, the CPU of the information processing apparatus 40 may perform synthesis processing such as alpha blending on the joint portion in order to make the joint of the image inconspicuous.

(9)以上により、下カメラ装置20により撮影されたやや上向きのユーザUの顔画像の目の部分の画像203を、上カメラ装置10により撮影されたやや下向きのユーザUの顔画像の目の部分の画像102と置換した合成画像104が得られる。本明細書では、このような画像合成を必要に応じて「上目線補正」と呼ぶ。   (9) As described above, the image 203 of the eye portion of the face image of the slightly upward user U photographed by the lower camera device 20 is used for the eyes of the face image of the slightly downward user U photographed by the upper camera device 10. A composite image 104 replaced with the partial image 102 is obtained. In this specification, such image composition is referred to as “upper eye line correction” as necessary.

また、次のような目線補正も可能である。
図3に示すように、
(7A)情報処理装置40のCPUは、上カメラ装置10により撮影された顔画像101において検出された目の部分の画像102を目線補正用の画像105として切り出す。
Further, the following eye line correction is also possible.
As shown in FIG.
(7A) The CPU of the information processing apparatus 40 cuts out the eye part image 102 detected in the face image 101 photographed by the upper camera apparatus 10 as the eye-correction image 105.

(8A)情報処理装置40のCPUは、この目線補正用の画像105を、下カメラ装置20により撮影された顔画像201において検出された目の部分の画像202と置き換える画像合成を行う。すなわち、上カメラ装置10により撮影された顔画像101から切り出された目線補正用の画像105と、下カメラ装置20により撮影された顔画像において検出された目の部分の画像202以外の画像205とを画素毎に加算する。   (8A) The CPU of the information processing device 40 performs image composition in which the eye-correction image 105 is replaced with the eye portion image 202 detected in the face image 201 photographed by the lower camera device 20. That is, an eyeline correction image 105 cut out from the face image 101 photographed by the upper camera device 10 and an image 205 other than the eye portion image 202 detected in the face image photographed by the lower camera device 20 For each pixel.

(9A)以上により、上カメラ装置10により撮影されたやや下向きのユーザUの顔画像の目の部分の画像105を、下カメラ装置20により撮影されたやや上向きのユーザUの顔画像の目の部分の画像102と置換した合成画像206が得られる。本明細書では、このような画像合成を必要に応じて「下目線補正」と呼ぶ。   (9A) As described above, the image 105 of the eye portion of the face image of the slightly downward user U photographed by the upper camera device 10 is converted into the eye of the face image of the slightly upward user U photographed by the lower camera device 20. A composite image 206 replaced with the partial image 102 is obtained. In this specification, such image composition is referred to as “lower eyeline correction” as necessary.

[2機のカメラ装置10,20のスペックについて]
2機のカメラ装置10,20の画質の高低を左右するスペックに差がある場合、合成画像においてより広範囲を占める側の画像を撮影するカメラ装置のスペックがより高いことが望ましい。ここで、画質の高低を左右するスペックとしては、例えば、撮像素子のサイズ、レンズ特性などが挙げられる。もちろん、画質の高低を左右するスペックはこれらに限定されない。
[Specifications of the two camera devices 10 and 20]
In the case where there is a difference in specifications that affect the image quality of the two camera apparatuses 10 and 20, it is desirable that the specifications of the camera apparatus that captures an image that occupies a wider area in the composite image are higher. Here, examples of specifications that influence the level of image quality include the size of the image sensor and lens characteristics. Of course, the specifications that determine the image quality are not limited to these.

例えば、上記の上目線補正では、上カメラ装置10により撮影された顔画像101のうち、目の部分以外の画像103が合成において使用される。したがって、上カメラ装置10は下カメラ装置20に比較して高スペックであることが全体的な画質を高めるために望ましい。   For example, in the above-described upper eyeline correction, the image 103 other than the eye portion of the face image 101 photographed by the upper camera device 10 is used in the synthesis. Therefore, it is desirable that the upper camera device 10 has higher specifications than the lower camera device 20 in order to improve the overall image quality.

また、下目線補正では、下カメラ装置20により撮影された顔画像201のうち、目の部分以外の画像205が合成において使用されるので、下カメラ装置20が上カメラ装置10に比較して高スペックであることが全体的な画質を高めるために望ましい。   Further, in the lower eye line correction, the image 205 other than the eye portion of the face image 201 photographed by the lower camera device 20 is used in the synthesis, so that the lower camera device 20 is higher than the upper camera device 10. A spec is desirable to improve the overall image quality.

[2機のカメラ装置10,20により撮影された各顔画像の画調の整合]
2機のカメラ装置10,20の撮影時に用いられる例えば露出、ホワイトバランス、色合い、コントラスト、シャープネスなどの画調を左右する撮影パラメータの値が異なる場合、目の領域と他の領域とで画調が不自然に異なったものとなり、合成された画像であることが一目で分かるようなものになりかねない。
[Alignment of the tone of each face image taken by the two camera devices 10, 20]
For example, when the values of shooting parameters that affect the image quality such as exposure, white balance, hue, contrast, sharpness, etc. used at the time of photographing with the two camera devices 10 and 20 are different, the image tone is different in the eye area and other areas May be unnaturally different, and it may be easy to see at a glance that the image is a composite.

本実施形態の顔画像処理システム1では、撮影前に情報処理装置40のCPUが、2機のカメラ装置10,20の撮影パラメータの値を比較し、もし画調の違いをもたらすような差があるのであれば、少なくとも一方のカメラ装置により撮影された画像の画調を、信号処理によって、他方のカメラ装置により撮影された画像の画調に合せるようにする。   In the face image processing system 1 of the present embodiment, the CPU of the information processing device 40 compares the values of the shooting parameters of the two camera devices 10 and 20 before shooting, and there is a difference that causes a difference in image tone. If there is, the tone of the image captured by at least one camera device is matched with the tone of the image captured by the other camera device by signal processing.

例えば、露出の値に違いがあれば、情報処理装置40のCPUは、例えば、一方のカメラ装置によって撮影された画像の輝度値を、各々のカメラ装置に設定された露出の値の差の分だけ増減させるように信号処理を行う。ホワイトバランス、色合い、コントラスト、シャープネスなどに差がある場合も同様に一方の画像に対する信号処理によって、画調の差を低減させる。   For example, if there is a difference in the exposure value, the CPU of the information processing device 40, for example, determines the luminance value of the image captured by one camera device as the difference between the exposure values set in the respective camera devices. Signal processing is performed so as to increase or decrease only. Similarly, when there is a difference in white balance, hue, contrast, sharpness, etc., the difference in image tone is reduced by signal processing for one image.

これにより、2機のカメラ装置10,20各々によって撮影された画像の画調を可及的に整合させることができ、合成された顔画像において、目の領域と他の領域との画調の不自然な違いを抑えることができる。   This makes it possible to match the image tone of the images taken by the two camera devices 10 and 20 as much as possible, and in the synthesized face image, the image tone of the eye region and other regions can be adjusted. Unnatural differences can be suppressed.

上下どちらのカメラ装置により撮影された画像の画調に揃えるかは、例えば、一意に決められていてもよいし、ユーザが適宜指定できてもよい。   Whether to align the image tone of the image captured by the upper or lower camera device may be uniquely determined, for example, or may be appropriately designated by the user.

なお、信号処理のトータル的な負荷を低減するために、カメラ装置から得られた顔画像の全体に信号処理を行うのではなく、合成する画像に対してのみ信号処理を行うことが望ましい。   In order to reduce the total load of signal processing, it is desirable not to perform signal processing on the entire face image obtained from the camera device but to perform signal processing only on the image to be synthesized.

また、ここでは、信号処理によって2つの画像の画調を合せる方法を述べたが、カメラ装置に設定されている撮影パラメータの値を一致させることによって、2機のカメラ装置10,20により撮影された各顔画像の画調を可及的に一致させるようにしてもよい。   In addition, here, a method for matching the tones of two images by signal processing has been described, but the two camera devices 10 and 20 are photographed by matching the photographing parameter values set in the camera devices. The image tone of each face image may be matched as much as possible.

すなわち、この方法は、撮影前に情報処理装置40のCPUが、2機のカメラ装置10,20の撮影パラメータの値を比較し、もし画調の違いをもたらすような差があるのであれば、少なくとも一方のカメラ装置の撮影パラメータの値を他方のカメラ装置の撮影パラメータの値に変更することによって実現される。あるいは、2機のカメラ装置10,20の撮影パラメータの値を各々の中間的な値に整合させてもよい。   That is, in this method, the CPU of the information processing device 40 compares the values of the shooting parameters of the two camera devices 10 and 20 before shooting, and if there is a difference that causes a difference in image quality, This is realized by changing the value of the shooting parameter of at least one camera device to the value of the shooting parameter of the other camera device. Or you may match the value of the imaging | photography parameter of the two camera apparatuses 10 and 20 with each intermediate value.

以上のように、本実施形態の顔画像処理システム1では、下カメラ装置20により撮影されたやや上向きのユーザUの顔画像の目の部分の画像203を、上カメラ装置10により撮影されたやや下向きのユーザUの顔画像の目の部分の画像102と置換した合成画像104を得ることができる。このような顔画像は、顔全体の向きがやや下向きである中で、目の部分だけがやや上向きの顔画像となるので、顔全体がやや上を向いた画像に比べ、上目線が引き立ち、印象的な顔画像を得ることができる。   As described above, in the face image processing system 1 of the present embodiment, the image 203 of the eye portion of the face image of the user U slightly upward taken by the lower camera device 20 is taken somewhat by the upper camera device 10. A composite image 104 can be obtained by replacing the eye portion image 102 of the face image of the user U facing downward. In such a face image, since the whole face is slightly downward, only the eye part is a slightly upward face image, so the upper eyeline is more conspicuous than the image with the whole face slightly upward, An impressive face image can be obtained.

また、本実施形態の顔画像処理システム1では、上カメラ装置10により撮影されたやや下向きのユーザUの顔画像の目の部分の画像105を、下カメラ装置20により撮影されたやや上向きのユーザUの顔画像の目の部分の画像102と置換した合成画像206を得ることができる。このような顔画像は、顔全体の向きがやや上向きである中で、目の部分だけがやや下向きの顔画像となるので、顔全体がやや下を向いた画像に比べ、下目線が引き立ち、ユニークな顔画像を得ることができる。   Further, in the face image processing system 1 of the present embodiment, the slightly upward facing user 105 photographed by the lower camera device 20 is an image 105 of the eyes of the slightly facing downward user U face image photographed by the upper camera device 10. A composite image 206 in which the image 102 of the eye portion of the U face image is replaced can be obtained. In such a face image, the face of the whole face is slightly upward, and only the eye part is a slightly downward face image. A unique face image can be obtained.

<第2の実施形態>
次に、本技術に係る第2の実施形態の顔画像処理システム1Aについて構成を説明する。
図4および図5は、内蔵カメラ20Aを備えた携帯型の情報処理装置である携帯端末40Aと、この携帯端末40Aに着脱自在に取り付けられるカメラ10Aとで構成される顔画像処理システム1Aを示す斜視図である。携帯端末40Aに着脱自在に取り付けられるカメラ10Aを本明細書では「外付けカメラ10A」と呼ぶ。
なお、図4は携帯端末40Aに外付けカメラ10Aを装着する前の状態を示し、図5は外付けカメラ10Aを装着した状態を示す。
<Second Embodiment>
Next, the configuration of the face image processing system 1A according to the second embodiment of the present technology will be described.
4 and 5 show a face image processing system 1A including a portable terminal 40A, which is a portable information processing apparatus provided with a built-in camera 20A, and a camera 10A that is detachably attached to the portable terminal 40A. It is a perspective view. The camera 10A that is detachably attached to the portable terminal 40A is referred to as an “external camera 10A” in the present specification.
4 shows a state before the external camera 10A is attached to the portable terminal 40A, and FIG. 5 shows a state where the external camera 10A is attached.

ここで、外付けカメラ10Aは上記の上カメラ装置10として用いられ、内蔵カメラ20Aは上記の下カメラ装置20として用いられる。   Here, the external camera 10 </ b> A is used as the upper camera device 10, and the built-in camera 20 </ b> A is used as the lower camera device 20.

[携帯端末40Aの構成]
図4および図5に示すように、携帯端末40Aは、ユーザが片手で把持可能なサイズおよび形状の筐体41を有する。筐体41は、前面、裏面および4つの側面によって構成される板状の直方体形状を有する。筐体41の前面42には、例えば液晶パネル、有機ELパネルなどで構成されるディスプレイの画面43が配置されている。ディスプレイの画面43の上には透明なタッチセンサーパネル(図示省略)が配置されている。タッチセンサーパネルは、例えば、静電容量方式などのタッチセンサーパネルで構成される。タッチセンサーパネルは、ユーザによりタッチされた位置に対応する信号を生成し、この信号から座標情報を生成してCPUに供給する。
[Configuration of Mobile Terminal 40A]
As illustrated in FIGS. 4 and 5, the mobile terminal 40 </ b> A includes a housing 41 having a size and a shape that can be held by a user with one hand. The housing 41 has a plate-like rectangular parallelepiped shape constituted by a front surface, a back surface, and four side surfaces. On the front surface 42 of the housing 41, a display screen 43 composed of, for example, a liquid crystal panel, an organic EL panel, or the like is disposed. A transparent touch sensor panel (not shown) is disposed on the screen 43 of the display. The touch sensor panel is composed of, for example, a capacitive sensor type touch sensor panel. The touch sensor panel generates a signal corresponding to the position touched by the user, generates coordinate information from the signal, and supplies the coordinate information to the CPU.

携帯端末40Aは、上述したようにカメラ20Aを内蔵する。以後、このカメラ20Aを本明細書において「内蔵カメラ20A」と呼ぶ。   The portable terminal 40A incorporates the camera 20A as described above. Hereinafter, this camera 20A is referred to as “built-in camera 20A” in this specification.

筐体41の前面42には、光を内蔵カメラ20Aの撮像レンズ(図示せず)に取り込むための光透過部44が設けられている。この内蔵カメラ20Aの撮像レンズを通して取り込まれた光はCMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)などの撮像素子にて電気的な信号に変換される。この電気的な信号はA/D変換器によって画素毎のデジタルデータに変換されてRAWデータとなる。RAWデータは、信号処理回路によって、例えば、露出、ホワイトバランスなどが設定されたパラメータに従って調整され、現像処理を経て、画像データが生成される。   The front surface 42 of the housing 41 is provided with a light transmission portion 44 for taking light into an imaging lens (not shown) of the built-in camera 20A. Light captured through the imaging lens of the built-in camera 20A is converted into an electrical signal by an imaging element such as a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD). This electrical signal is converted into digital data for each pixel by an A / D converter and becomes RAW data. The RAW data is adjusted by a signal processing circuit according to parameters in which, for example, exposure and white balance are set, and image data is generated through development processing.

このように内蔵カメラ20Aによって得られた画像データは携帯端末40A内のCPUおよび表示制御回路によって表示用のデータとされ、ディスプレイに供給されることによってディスプレイの画面43に動画や静止画として表示される。CPUは、ユーザによって指示されたタイミングの画像データを静止画としてストレージやメディアなどに保存する。その際、例えばJPEG(Joint Photographic Experts Group)などの特定の画像フォーマットに変換されてもよい。   Thus, the image data obtained by the built-in camera 20A is displayed as data for display by the CPU and display control circuit in the portable terminal 40A, and is displayed on the screen 43 of the display as a moving image or a still image by being supplied to the display. The The CPU stores image data at a timing instructed by the user as a still image in a storage or a medium. At that time, it may be converted into a specific image format such as JPEG (Joint Photographic Experts Group).

次に、この携帯端末40Aの具体的なハードウェア構成を説明する。
図6は、この携帯端末40Aのハードウェア構成を示すブロック図である。この携帯端末40Aのハードウェア構成は、上記第1の実施形態の情報処理装置40と同様である。
Next, a specific hardware configuration of the mobile terminal 40A will be described.
FIG. 6 is a block diagram showing a hardware configuration of the portable terminal 40A. The hardware configuration of the portable terminal 40A is the same as that of the information processing apparatus 40 of the first embodiment.

同図に示すように、携帯端末40Aは、CPU(制御部)401、メインメモリ402、ストレージ403、内蔵カメラ(下カメラ装置)20A、ディスプレイ404、タッチセンサーパネル405、表示制御部406、タッチセンサー制御部407、姿勢センサー408、無線通信部409およびシステムバス410を備える。   As shown in the figure, the mobile terminal 40A includes a CPU (control unit) 401, a main memory 402, a storage 403, a built-in camera (lower camera device) 20A, a display 404, a touch sensor panel 405, a display control unit 406, and a touch sensor. A control unit 407, an attitude sensor 408, a wireless communication unit 409, and a system bus 410 are provided.

CPU401は、携帯端末40Aの各部の制御をしたり、メインメモリ402を作業空間として用いてアプリケーションプログラムを実行するための演算処理を実行したりするコントローラである。   The CPU 401 is a controller that controls each unit of the mobile terminal 40A and executes arithmetic processing for executing an application program using the main memory 402 as a work space.

メインメモリ402は、RAM(Random Access Memory)などで構成される。メインメモリ402には、オペレーティングシステム、このオペレーティングシステム上で実行されるアプリケーションプログラムおよびこのアプリケーションプログラムの動作に必要な各種のデータが格納される。   The main memory 402 is composed of a RAM (Random Access Memory) or the like. The main memory 402 stores an operating system, an application program executed on the operating system, and various data necessary for the operation of the application program.

ストレージ403は、例えば、フラッシュメモリなどの不揮発性メモリで構成される。ストレージ403には、メインメモリ402に呼び出されるオペレーティングシステム、各種のアプリケーションプログラム、画像、音声、ドキュメントなどの各種のデータのファイルが格納される。   The storage 403 is composed of a nonvolatile memory such as a flash memory, for example. The storage 403 stores files of various data such as an operating system called up to the main memory 402, various application programs, images, sounds, and documents.

内蔵カメラ20Aは、前述したように携帯端末40Aに内蔵されたカメラである。内蔵カメラ20Aは、カメラ用のアプリケーションプログラムに従ってCPU401によって制御される。CPU401は、カメラ用のアプリケーションプログラムに従って、例えば、内蔵カメラ20Aの起動、撮影パラメータや解像度などの各種の撮影条件の設定、現像処理の制御、現像された画像データを表示制御部406に供給して動画や静止画をディスプレイ404に表示させる制御を行う。さらに、CPU401は、カメラ用のアプリケーションプログラムに従って、目線補正のための画像合成を、内蔵カメラ20Aにより撮影された画像および外付けカメラ10Aによって撮影された画像を用いて行う。   The built-in camera 20A is a camera built in the mobile terminal 40A as described above. The built-in camera 20A is controlled by the CPU 401 in accordance with a camera application program. The CPU 401 supplies, for example, activation of the built-in camera 20A, setting of various shooting conditions such as shooting parameters and resolution, control of development processing, and developed image data to the display control unit 406 in accordance with the camera application program. Control is performed to display a moving image or a still image on the display 404. Further, the CPU 401 performs image composition for eye-gaze correction using an image photographed by the built-in camera 20A and an image photographed by the external camera 10A according to the camera application program.

ディスプレイ404は、例えば、液晶パネル、有機EL(electroluminescence)パネルなどによって構成され、携帯端末40Aの各種操作画面の表示、静止画および動画などの画像の表示、その他のドキュメントなどの各種のファイルの内容の表示したりする。   The display 404 is composed of, for example, a liquid crystal panel, an organic EL (electroluminescence) panel, and the like, and displays various operation screens of the mobile terminal 40A, displays images such as still images and moving images, and contents of various files such as other documents. Or display.

表示制御部406は、上記の各種の情報についてディスプレイ404の仕様に対応した表示用のデータを生成する。   The display control unit 406 generates display data corresponding to the specifications of the display 404 for the various types of information described above.

タッチセンサーパネル405は、前述したようにディスプレイ404の画面においてユーザにより選択された位置の座標を検出するデバイスである。   The touch sensor panel 405 is a device that detects the coordinates of the position selected by the user on the screen of the display 404 as described above.

タッチセンサー制御部407は、タッチセンサーパネル405を制御し、検出された位置に対応する座標データを生成してCPU401に供給する。   The touch sensor control unit 407 controls the touch sensor panel 405, generates coordinate data corresponding to the detected position, and supplies the coordinate data to the CPU 401.

姿勢センサー408は、前述したように携帯端末40Aの姿勢を検知するためのセンサーである。姿勢センサー408は、例えば、3軸方向の加速度を検出する加速度センサーや、角速度を検出するジャイロセンサーなどにより構成される。   The attitude sensor 408 is a sensor for detecting the attitude of the mobile terminal 40A as described above. The posture sensor 408 includes, for example, an acceleration sensor that detects acceleration in three axes, a gyro sensor that detects angular velocity, and the like.

無線通信部409は、外部装置(例えば下カメラ装置20)との間で、例えば、WiFi(登録商標)などの無線LAN(Local Area Network)や、例えばNFC(Near field communication)やBlue Tooth(登録商標)などの近距離無線通信などを行うためのインタフェースである。   The wireless communication unit 409 communicates with an external device (for example, the lower camera device 20), for example, a wireless local area network (WiFi) such as WiFi (registered trademark), NFC (Near field communication), or Blue Tooth (registered). This is an interface for performing near field communication such as a trademark.

システムバス410は、上記各ブロック間での各種の信号をやりとりするための伝送路である。   The system bus 410 is a transmission path for exchanging various signals between the blocks.

以上、携帯端末40Aの主なハードウェア構成について説明したが、その他の構成としては、例えば、WWAN(Wireless Wide Area Network)通信部、スピーカ、マイクロフォン、メモリカードリードライタ、バッテリおよびその制御回路、GPS(Global Positioning System)受信部、地上デジタルテレビジョン受信部などが搭載されていてもよい。   Although the main hardware configuration of the mobile terminal 40A has been described above, other configurations include, for example, a WWAN (Wireless Wide Area Network) communication unit, a speaker, a microphone, a memory card reader / driver, a battery and its control circuit, GPS A (Global Positioning System) receiving unit, a terrestrial digital television receiving unit, and the like may be mounted.

[外付けカメラ10Aの構成]
図7および図8は外付けカメラ10Aの外観を示す斜視図である。
[Configuration of External Camera 10A]
7 and 8 are perspective views showing the external appearance of the external camera 10A.

この外付けカメラ10Aは、カメラ本体11とアダプター12とで構成される。アダプター12はカメラ本体11および外部機器(例えば、携帯端末40A)の各々に対して着脱可能とされている。但し、カメラ本体11とアダプター12は一体化されたものであってもよい。   This external camera 10 </ b> A includes a camera body 11 and an adapter 12. The adapter 12 can be attached to and detached from each of the camera body 11 and an external device (for example, the portable terminal 40A). However, the camera body 11 and the adapter 12 may be integrated.

カメラ本体11は、例えば円筒形の外筒部13を有する。外筒部13内には撮像レンズ、撮像素子、信号処理および画像処理のための回路、コントローラおよびメモリなどの制御用の回路、電源部、画像データ保存のためのストレージ、無線通信回路などが収容されている。   The camera body 11 has, for example, a cylindrical outer tube portion 13. An imaging lens, an image sensor, a circuit for signal processing and image processing, a control circuit such as a controller and a memory, a power supply unit, a storage for storing image data, a wireless communication circuit, and the like are accommodated in the outer cylinder unit 13. Has been.

外筒部13の前面側の先端部には、前後方向において移動可能とされた内筒部14が支持されている。図8に示すように、この外付けカメラ10Aは、内筒部14が外筒部13に対して前方へ繰り出されて撮影状態とされ、前方へ繰り出されていた内筒部14が後方へ繰り込まれて外筒部13の内部に収納されることにより沈胴状態(図7)とされる。   An inner cylinder portion 14 that is movable in the front-rear direction is supported at a front end portion of the outer cylinder portion 13. As shown in FIG. 8, in this external camera 10A, the inner tube portion 14 is drawn forward with respect to the outer tube portion 13 to be in a photographing state, and the inner tube portion 14 that has been drawn forward is moved backward. The retracted state (FIG. 7) is achieved by being inserted and housed inside the outer cylinder portion 13.

内筒部14の前面部には略矩形状の光透過孔15が形成されている。内筒部8の前面部における後面側にはレンズバリアー9、9が開閉自在に支持されている。レンズバリアー9、9は図示しない開閉機構によって沈胴状態において閉じられ撮影状態において開かれる。従って、沈胴状態においてはレンズバリアー9、9によって内筒部8の光透過孔15が閉塞され(図7参照)、撮影状態においてはレンズバリアー9、9によって光透過孔15が開放される(図8参照)。   A substantially rectangular light transmission hole 15 is formed in the front surface portion of the inner cylinder portion 14. Lens barriers 9 and 9 are supported on the rear surface side of the front surface portion of the inner cylinder portion 8 so as to be freely opened and closed. The lens barriers 9 and 9 are closed in the retracted state and opened in the photographing state by an opening / closing mechanism (not shown). Accordingly, in the retracted state, the light transmission holes 15 of the inner cylinder portion 8 are blocked by the lens barriers 9 and 9 (see FIG. 7), and in the photographing state, the light transmission holes 15 are opened by the lens barriers 9 and 9 (see FIG. 7). 8).

カメラ本体11の内部には複数の撮影用のレンズ群が光軸方向に離隔して配置されており、レンズバリアー9、9によって光透過孔15が開放されると撮影用のレンズ群に外部から光が入射される。撮影用のレンズ群を通過した光は撮像素子に入射し、画素毎の電気的な信号に変換される。画素毎の電気的な信号は、A/D変換器にてデジタル信号とされ、現像処理を経て、画像データとされる。   A plurality of photographing lens groups are arranged in the camera body 11 so as to be separated from each other in the optical axis direction. When the light transmitting hole 15 is opened by the lens barriers 9 and 9, the photographing lens group is externally provided. Light is incident. The light that has passed through the photographing lens group enters the image sensor and is converted into an electrical signal for each pixel. An electrical signal for each pixel is converted into a digital signal by an A / D converter, and is converted into image data after development processing.

外筒部7の前端部の周面には操作リング16が回転自在に支持されている。操作リング16が回動操作されることにより、マニュアルフォーカスやズームが行われレンズ群が光軸方向へ移動される。   An operation ring 16 is rotatably supported on the peripheral surface of the front end portion of the outer cylinder portion 7. When the operation ring 16 is rotated, manual focusing and zooming are performed, and the lens group is moved in the optical axis direction.

外筒部7の外周面には、シャッターボタン17、ズームスイッチ18、その他の操作ボタン/スイッチが設けられている。   A shutter button 17, a zoom switch 18, and other operation buttons / switches are provided on the outer peripheral surface of the outer cylinder portion 7.

アダプター12は、外部機器(例えば携帯端末40A)に掛止される一対の掛止部19、19を有する。一対の掛止部19、19は、アダプター12に対して伸縮自在であり、かつ、任意の伸縮位置でロックすることができる。   The adapter 12 has a pair of latching portions 19 and 19 that are latched by an external device (for example, the mobile terminal 40A). A pair of latching parts 19 and 19 can be expanded and contracted with respect to the adapter 12, and can be locked in arbitrary expansion and contraction positions.

一対の掛止部19、19は、アダプター12に対して伸縮自在であることによって、この外付けカメラ10Aは、様々な形状およびサイズの外部機器の様々な部位に装着することができる。   The pair of latching portions 19, 19 are extendable with respect to the adapter 12, so that the external camera 10 </ b> A can be attached to various parts of external devices having various shapes and sizes.

[外付けカメラ10Aのハードウェア構成]
図9は外付けカメラ10Aのハードウェア構成を示すブロック図である。
[Hardware configuration of external camera 10A]
FIG. 9 is a block diagram showing a hardware configuration of the external camera 10A.

同図に示すように、この外付けカメラ10Aは、コントローラ501、操作入力部502、撮像部503、信号処理部504、メカ駆動部505、電源部506、ストレージ507、無線通信部508およびシステムバス509を備える。   As shown in the figure, the external camera 10A includes a controller 501, an operation input unit 502, an imaging unit 503, a signal processing unit 504, a mechanical drive unit 505, a power supply unit 506, a storage 507, a wireless communication unit 508, and a system bus. 509.

コントローラ501は、外付けカメラ10Aの各部を制御する。コントローラ501は、CPUとメモリを有する。メモリはメインメモリ402として用いられるRAMと、電源のON/OFF、撮像の開始、静止画の取り込み、および外部機器(例えば携帯端末40A)との通信制御などを実行するためのプログラムが格納されたROMを有する。   The controller 501 controls each part of the external camera 10A. The controller 501 has a CPU and a memory. The memory stores a RAM used as the main memory 402, and a program for executing ON / OFF of power, start of imaging, capturing of still images, communication control with an external device (for example, the portable terminal 40A), and the like. Has ROM.

コントローラ501は、例えば、無線通信部508を用いて、近距離内に存在する外部機器(例えば携帯端末40A)を検出すると、電源部506に対して電源制御信号を出力し、外付けカメラ10A内の各部への電源の供給を開始させる。また、コントローラ501は、外付けカメラ10Aの各部への電源供給がオンであるとき、近距離内に外部機器(例えば携帯端末40A)が検出されなくなると、各部への電源供給をオフにするように電源部506に電源制御信号を供給する。これによりコントローラ501は機器検出の状態に戻る。   For example, when the controller 501 detects an external device (for example, the portable terminal 40A) existing within a short distance using the wireless communication unit 508, the controller 501 outputs a power control signal to the power supply unit 506, and the internal camera 10A The power supply to each part of is started. In addition, when the power supply to each unit of the external camera 10A is on, the controller 501 turns off the power supply to each unit when an external device (for example, the portable terminal 40A) is not detected within a short distance. A power supply control signal is supplied to the power supply unit 506. As a result, the controller 501 returns to the device detection state.

コントローラ501は、無線通信部508を用いて接続された外部機器(例えば携帯端末40A)からの、各種の指令を受け、その指令に応じた処理を行う。外部機器(例えば携帯端末40A)からの指示としては、例えば、撮影開始の指示、撮影中の動画からの静止画の切り出しと(例えば携帯端末40A)への無線伝送、さらにはズームアップ/ズームインなどがある。   The controller 501 receives various commands from an external device (for example, the mobile terminal 40A) connected using the wireless communication unit 508, and performs processing according to the commands. As an instruction from the external device (for example, the mobile terminal 40A), for example, an instruction to start shooting, extraction of a still image from the moving image being shot, wireless transmission to the (for example, the mobile terminal 40A), zoom-up / zoom-in, etc. There is.

操作入力部502は、ユーザからの操作入力を受け付け、操作信号をコントローラ501に出力する。   The operation input unit 502 receives an operation input from the user and outputs an operation signal to the controller 501.

撮像部503は、撮影レンズと、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子などで構成される。   The imaging unit 503 includes an imaging lens and an imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).

信号処理部504は、撮像部503の出力をデジタル信号に変換するA/D変換器と、A/D変換器の出力であるRAWデータに対して露光、ホワイトバランスなどの調整、現像処理などを行う。信号処理部504は、必要に応じて、例えばノイズ除去、色調補正、エッジ検出などを行う。   The signal processing unit 504 performs an A / D converter that converts the output of the imaging unit 503 into a digital signal, and adjustment of exposure, white balance, and development processing on RAW data that is the output of the A / D converter. Do. The signal processing unit 504 performs, for example, noise removal, color tone correction, and edge detection as necessary.

ストレージ507は、撮影された画像データのファイルを保存するために用いられる。ストレージ507は、例えば、フラッシュメモリなどで構成される。   The storage 507 is used to store a captured image data file. The storage 507 is composed of, for example, a flash memory.

メカ駆動部505は、フォーカス調整、ズーム変更のためにレンズ群を光軸方向に駆動するメカや、内筒部14を進退させる機構、およびレンズバリアー9、9を開閉する機構などの各メカを駆動する回路である。   The mechanical drive unit 505 includes various mechanisms such as a mechanism that drives the lens group in the optical axis direction for focus adjustment and zoom change, a mechanism that moves the inner cylinder part 14 back and forth, and a mechanism that opens and closes the lens barriers 9 and 9. It is a circuit to drive.

電源部506は、バッテリと、バッテリから外付けカメラ10Aの各部を動作させるために必要な電力を生成し、各部に供給する。   The power supply unit 506 generates power necessary for operating each part of the external camera 10A from the battery and the battery, and supplies the power to each part.

無線通信部508は、外部装置(例えば携帯端末40A)との間で、例えば、WiFi(登録商標)などの無線LAN(Local Area Network)や、例えばNFC(Near field communication)やBlue Tooth(登録商標)などの近距離無線通信などを行うためのインタフェースである。   The wireless communication unit 508 communicates with an external device (for example, the mobile terminal 40A), for example, a wireless local area network (WiFi) such as WiFi (registered trademark), NFC (Near field communication), or Blue Tooth (registered trademark). This is an interface for performing short-range wireless communication.

その他、カメラ装置は、ディスプレイ、スピーカ、GPS受信部、姿勢センサー、メディアリードライタなどを備えたものであってよい。   In addition, the camera device may include a display, a speaker, a GPS receiver, a posture sensor, a media driter, and the like.

次に、この携帯端末40Aを利用するときの姿勢について説明する。
この携帯端末40Aの筐体41の形状は直方体であり、1軸(Z軸)の方向のサイズが特に小さいことによって薄型の直方体となっている。他の2軸(XY軸)の方向によって構成される二次元空間はディスプレイの画面43を配置するために比較的広くなっている。筐体41のX軸方向のサイズLxとY軸方向とのサイズLyとの関係はLx<Lyである。ディスプレイの画面43のX軸方向のサイズDxとY軸方向とのサイズDyの関係もDx<Dyである。
Next, an attitude when using the mobile terminal 40A will be described.
The casing 41 of the mobile terminal 40A has a rectangular parallelepiped shape, and is a thin rectangular parallelepiped because the size in the direction of one axis (Z axis) is particularly small. The two-dimensional space constituted by the directions of the other two axes (XY axes) is relatively wide in order to arrange the display screen 43. The relationship between the size Lx in the X-axis direction of the housing 41 and the size Ly in the Y-axis direction is Lx <Ly. The relationship between the size Dx of the display screen 43 in the X-axis direction and the size Dy in the Y-axis direction is also Dx <Dy.

以降の説明において、Y軸方向をユーザから見て縦にした携帯端末40Aの姿勢を「縦姿勢」、X軸方向をユーザから見て縦にした携帯端末40Aの姿勢を「横姿勢」と呼ぶことにする。また、縦姿勢には、ユーザから見て内蔵カメラ20Aの位置がディスプレイの画面43よりも上側となる姿勢(第1の縦姿勢)と、下側となる姿勢(第2の縦姿勢)がある。同様に、横姿勢には、ユーザから見て内蔵カメラ20Aの位置がディスプレイの画面43の右側となる姿勢(第1の横姿勢)と、左側となる姿勢(第2の横姿勢)がある。   In the following description, the posture of the mobile terminal 40A with the Y-axis direction viewed from the user is called “vertical posture”, and the posture of the mobile terminal 40A with the X-axis direction viewed from the user is called “horizontal posture”. I will decide. The vertical posture includes a posture (first vertical posture) in which the position of the built-in camera 20 </ b> A is above the display screen 43 as viewed from the user, and a posture (second vertical posture) in the lower side. . Similarly, the horizontal posture includes a posture (first horizontal posture) where the position of the built-in camera 20A is the right side of the display screen 43 as viewed from the user and a posture (second horizontal posture) where the position is the left side.

携帯端末40Aの上記の各姿勢は、内蔵された加速度センサーおよびジャイロセンサーなどによって検知され、例えば、ユーザから見た上下左右の向きとディスプレイの画面43に表示される画像の上下左右の向きとが一致するように、表示データの向きが回転されるようになっている。   Each of the above postures of the mobile terminal 40A is detected by a built-in acceleration sensor, gyro sensor, or the like. The direction of the display data is rotated so as to match.

[顔画像処理システム1Aの動作]
携帯端末40Aに、外付けカメラ10Aをアダプター12を介して装着することによって、携帯端末40Aと外付けカメラ10Aとの間での例えば近距離無線通信によって互いの機器が検出される。
[Operation of Face Image Processing System 1A]
By attaching the external camera 10A to the portable terminal 40A via the adapter 12, the devices are detected by, for example, short-range wireless communication between the portable terminal 40A and the external camera 10A.

外付けカメラ10Aのコントローラ501は、携帯端末40Aを検出すると、電源部506に対して、外付けカメラ10Aの各部への電力の供給を指示する。これにより、カメラユニットは、撮影可能な状態となり、携帯端末40Aからの指令を待機する。   When the controller 501 of the external camera 10A detects the portable terminal 40A, the controller 501 instructs the power supply unit 506 to supply power to each unit of the external camera 10A. As a result, the camera unit is ready for shooting and waits for a command from the mobile terminal 40A.

一方、携帯端末40AのCPU401は、外付けカメラ10Aを検出すると、カメラ用のアプリケーションプログラムを起動させる。携帯端末40AのCPU401は、カメラ用のアプリケーションプログラムに従って、内蔵カメラ20Aを起動させて撮影を開始するように制御を行う。また、携帯端末40AのCPU401は、無線通信により、外付けカメラ10Aに対して撮影開始を指示する。これにより、内蔵カメラ20Aと外付けカメラ10Aの各々において撮影が開始される。   On the other hand, when detecting the external camera 10A, the CPU 401 of the mobile terminal 40A activates an application program for the camera. The CPU 401 of the portable terminal 40A performs control such that the built-in camera 20A is activated to start photographing in accordance with the camera application program. Further, the CPU 401 of the mobile terminal 40A instructs the external camera 10A to start photographing by wireless communication. Thereby, shooting is started in each of the built-in camera 20A and the external camera 10A.

内蔵カメラ20Aが起動されると、この内蔵カメラ20Aによって撮影された画像が携帯端末40Aのディスプレイ404の画面43に動画として表示される。   When the built-in camera 20A is activated, an image taken by the built-in camera 20A is displayed as a moving image on the screen 43 of the display 404 of the portable terminal 40A.

ユーザは、自分の顔を撮影するために、ディスプレイ404の画面43を見ながら、携帯端末40Aの内蔵カメラ20Aの視野に自分の顔が入るように携帯端末40Aの位置と向きを決める。内蔵カメラ20Aのシャッターボタンがユーザによって操作されると、携帯端末40AのCPU401は、その時点で撮影された画像(静止画)を目線補正に用いる第1の顔画像としてメインメモリ402に保持する。   In order to photograph the user's face, the user determines the position and orientation of the mobile terminal 40A so that the user's face enters the field of view of the built-in camera 20A of the mobile terminal 40A while looking at the screen 43 of the display 404. When the shutter button of the built-in camera 20A is operated by the user, the CPU 401 of the mobile terminal 40A holds the image (still image) captured at that time in the main memory 402 as a first face image used for eye line correction.

また、携帯端末40AのCPU401は、外付けカメラ10Aに対して、撮影中の動画からの静止画の切り出しとその静止画の伝送を無線通信によって要求する。カメラユニットのコントローラ501は、この要求を受けると、撮影中の動画から静止画を切り出し、この静止画を無線通信によって携帯端末40Aに伝送する。携帯端末40AのCPU401は、外付けカメラ10Aから伝送された画像(静止画)を目線補正に用いる第2の顔画像としてメインメモリ402に保持する。   In addition, the CPU 401 of the mobile terminal 40A requests the external camera 10A to cut out a still image from the moving image being shot and transmit the still image by wireless communication. Upon receiving this request, the controller 501 of the camera unit cuts out a still image from the moving image being shot, and transmits this still image to the portable terminal 40A by wireless communication. The CPU 401 of the portable terminal 40A holds the image (still image) transmitted from the external camera 10A in the main memory 402 as a second face image used for eye line correction.

この後、携帯端末40AのCPU401は、メインメモリ402に保持された2つの顔画像から、上述した目線補正のための合成処理を実行し、その結果をディスプレイ404の画面43に表示する。
なお、2つの顔画像の画調の整合については、本実施形態においても第1の実施形態と同様に行われる。
Thereafter, the CPU 401 of the mobile terminal 40 </ b> A executes the above-described combining process for eye line correction from the two face images held in the main memory 402, and displays the result on the screen 43 of the display 404.
Note that the matching of the tone of the two face images is performed in this embodiment as in the first embodiment.

図10は、本実施形態の顔画像処理システム1Aを用いてユーザが自分の顔を撮影する第1の形態を示す図である。   FIG. 10 is a diagram showing a first mode in which a user photographs his / her face using the face image processing system 1A of the present embodiment.

この第1の撮影形態では、外付けカメラ10AをユーザUの顔を目線Eよりやや高い位置から撮影する上カメラ装置10(図1参照)として用い、内蔵カメラ20AをユーザUの顔を目線Eよりやや低い位置から撮影する下カメラ装置20(図1参照)として用いる場合を想定している。   In this first imaging mode, the external camera 10A is used as the upper camera device 10 (see FIG. 1) that captures the face of the user U from a position slightly higher than the line of sight E, and the built-in camera 20A is used for the line of sight E of the user U. A case is assumed where the camera is used as the lower camera device 20 (see FIG. 1) for photographing from a slightly lower position.

これは、カメラの画質の高低を左右するスペックが、携帯端末40Aの内蔵カメラ20Aに比較して外付けカメラ10Aの方が高い場合であって、かつ上目線画像を合成する場合に最適な形態である。すなわち、外付けカメラ10Aによって撮影された比較的高画質な画像が、目の部分以外の広い範囲の部分に使用されるからである。   This is a form optimal for the case where the external camera 10A has higher specifications than the built-in camera 20A of the portable terminal 40A, and the upper eyeline image is synthesized. It is. That is, a relatively high-quality image photographed by the external camera 10A is used for a wide range portion other than the eye portion.

図11は、本実施形態の顔画像処理システム1Aを用いてユーザUが自分の顔を撮影する第2の形態を示す図である。   FIG. 11 is a diagram illustrating a second mode in which the user U captures his / her face using the face image processing system 1A of the present embodiment.

この第2の撮影形態では、第1の撮影形態とは逆に、外付けカメラ10AをユーザUの顔を目線Eよりやや低い位置から撮影する下カメラ装置20(図1参照)として用い、内蔵カメラ20AをユーザUの顔を目線Eよりやや高い位置から撮影する上カメラ装置10(図1参照)として用いる場合を想定したものである。   In the second imaging mode, contrary to the first imaging mode, the external camera 10A is used as a lower camera device 20 (see FIG. 1) that captures the face of the user U from a position slightly lower than the line of sight E. It is assumed that the camera 20A is used as the upper camera device 10 (see FIG. 1) that captures the face of the user U from a position slightly higher than the line of sight E.

携帯端末40Aは、姿勢センサー408によって筐体41の上下の向きが検知されるため、携帯端末40Aの内蔵カメラ20Aおよび外付けカメラ10Aの各々において撮影された画像の上下の向きを回転させることによって、目線補正が施された合成画像を得ることができる。   Since the orientation sensor 408 detects the vertical orientation of the housing 41, the portable terminal 40A rotates the vertical orientation of the images captured by the built-in camera 20A and the external camera 10A of the portable terminal 40A. A composite image that has undergone eye line correction can be obtained.

これは、カメラの画質の高低を左右するスペックが、外付けカメラ10Aに比較して携帯端末40Aの内蔵カメラ20Aの方が高い場合であって、かつ上目線画像を合成する場合に最適な形態である。   This is the case where the spec that determines the image quality of the camera is higher in the built-in camera 20A of the portable terminal 40A than in the external camera 10A, and is optimal for the case where the upper eye image is synthesized. It is.

<変形例1>
目線補正が施された画像合成後、携帯端末40AのCPU401は、その合成画像と、合成される前の2つの顔画像、あるいは合成される前の2つの顔画像のうち一方とを、ディスプレイ404の画面に同時に表示させるようにしてもよい。
<Modification 1>
After synthesizing the image subjected to the line-of-sight correction, the CPU 401 of the mobile terminal 40A displays the synthesized image and two face images before being synthesized or one of the two face images before being synthesized. It may be displayed on the screen simultaneously.

携帯端末40AのCPU401は、同時に表示された上記の各顔画像において、好みの顔画像をユーザに選択させ、選択された顔画像のみを保存するようにしてもよい。   The CPU 401 of the portable terminal 40A may cause the user to select a favorite face image among the face images displayed at the same time, and store only the selected face image.

<変形例2>
以上の目線補正において、同時に、ユーザが指示する加工を合成された顔画像に施してもよい。例えば、目や瞳を大きくする加工、美肌加工などの画像編集内容、ユーザが目線補正のオプションとして選択できるようにすればよい。携帯端末40AのCPU401は、選択された目線補正のオプションに従って、合成された顔画像に対して、上記の画像編集を実行する。
<Modification 2>
In the eye line correction described above, processing that is instructed by the user may be simultaneously performed on the synthesized face image. For example, image editing contents such as processing for enlarging eyes and pupils, skin beautification processing, and the like may be selected by the user as options for eye line correction. The CPU 401 of the portable terminal 40A executes the above-described image editing on the synthesized face image according to the selected eye correction option.

<変形例3>
ネットワーク上のサーバ装置のCPUにおいて目線補正を行うようにしてもよい。すなわち、情報処理装置からネットワークを通じてサーバ装置に、2つのカメラによって撮影された2つの顔画像が送信される。サーバ装置のCPUは、受信した2つの顔画像に対して上記の目線補正を行い、合成画像を情報処理装置にネットワークを通じて返信するように構成される。
<Modification 3>
The line of sight correction may be performed in the CPU of the server device on the network. That is, two face images photographed by two cameras are transmitted from the information processing apparatus to the server apparatus via the network. The CPU of the server device is configured to perform the above-described line-of-sight correction on the received two face images, and send the composite image back to the information processing device via the network.

<変形例4>
外付けカメラ10Aから携帯端末40Aに伝送される画像はRAWデータであってもよい。携帯端末40A内で現像処理を行うことによって、現像処理部を備えていない外付けカメラを使用することが可能になる。
<Modification 4>
The image transmitted from the external camera 10A to the portable terminal 40A may be RAW data. By performing development processing in the portable terminal 40A, it is possible to use an external camera that does not include a development processing unit.

<変形例5>
上記実施形態では、カメラ装置を2機使用したが、1機のカメラ装置をユーザの顔の縦方向に移動させ、上下の各位置にてユーザの顔を計2回撮影するように構成してもよい。したがって、本技術において、カメラの数は1または2である。
<Modification 5>
In the above embodiment, two camera devices are used. However, one camera device is moved in the vertical direction of the user's face, and the user's face is photographed twice at each of the upper and lower positions. Also good. Therefore, in the present technology, the number of cameras is 1 or 2.

<変形例6>
上記実施形態では、目線補正のための画像合成を情報処理装置40あるいは携帯端末40AのCPUで行うものとしたが、複数の情報処理装置で構成される情報処理システムにて処理を分散して行うようにしてもよい。または、1以上の情報処理装置と、これとネットワークを通じて接続されたサーバ装置で構成される情報処理システムにて処理を分散して行ってもよい。あるいは、ネットワークを通じて接続された複数のサーバ装置で構成される情報処理システムにて処理を分散して行ってもよい。
<Modification 6>
In the above embodiment, image synthesis for eye line correction is performed by the CPU of the information processing apparatus 40 or the portable terminal 40A. However, the processing is distributed and performed by an information processing system including a plurality of information processing apparatuses. You may do it. Alternatively, the processing may be performed in a distributed manner in an information processing system including one or more information processing devices and a server device connected thereto through a network. Alternatively, the processing may be performed in a distributed manner in an information processing system including a plurality of server devices connected through a network.

<変形例7>
以上では、静止画の目線補正について述べたが、本技術は、動画の目線補正にも同様に応用することができる。すなわち、例えば、フレーム単位あるいは1/Nフレームの単位で静止画に対する目線補正のための画像合成をすればよい。
<Modification 7>
In the above, the line-of-sight correction for a still image has been described. However, the present technology can be similarly applied to line-of-sight correction for a moving image. That is, for example, image synthesis for eye line correction for a still image may be performed in units of frames or in units of 1 / N frames.

この場合、携帯端末40Aをユーザが手にもって2機のカメラの画角内に自分の顔が入るようにする。このため、手振れなどによって、時折、2機のカメラの画角内から顔が外れたり、部分的に収まらなかったりすることがある。   In this case, the user holds the portable terminal 40 </ b> A so that his / her face falls within the angle of view of the two cameras. For this reason, due to camera shake or the like, the face may sometimes come off from within the angle of view of the two cameras or may not partially fit.

変形例7では、2機のカメラの画角内から顔が外れたり、部分的に収まらなかったりして目線補正のための画像合成に失敗した場合、情報処理装置40あるいは携帯端末40AのCPU401が、最後に合成に成功した目線補正画像で、画像合成に失敗したフレームあるいは1/Nフレームを補間する。これにより、目線補正された動画が途切れることなく表示できる。   In the modified example 7, if the image composition for eye-gaze correction fails because the face is out of the angle of view of the two cameras or does not fit in part, the CPU 401 of the information processing device 40 or the portable terminal 40A Finally, a frame or 1 / N frame that has failed to be combined is interpolated in the eye-corrected image that has been successfully combined. As a result, it is possible to display the moving image corrected for the line of sight without interruption.

<変形例8>
本技術は、3機以上のカメラが接続されている場合にも応用することができる。
例えば、図12に示すように、携帯端末40Aの前方(ユーザU1の側)を視野とする2機のカメラ10A、20Aが縦方向の上下に配置され、それらと対称的に携帯端末40Aの後方を視野とする2機のカメラ10B、20Bが縦方向の上下に配置されたものなどが想定される。
<Modification 8>
The present technology can also be applied when three or more cameras are connected.
For example, as shown in FIG. 12, two cameras 10A and 20A having a field of view in front of the mobile terminal 40A (the side of the user U1) are arranged vertically and symmetrically with the rear of the mobile terminal 40A. It is assumed that two cameras 10B and 20B having a field of view are arranged vertically in the vertical direction.

この場合、図12に示すように、携帯端末40Aの前方(ユーザU1の側)を視野とする2機のカメラ10A、20Aは自分の目線補正画像を生成するための撮影に用いられる。携帯端末40Aの後方を視野とする2機のカメラ10B、20Bは、ユーザU1から携帯端末40Aの位置を挟んで反対側にいる人物U2の顔の目線補正画像を生成するための撮影に用いられる。   In this case, as shown in FIG. 12, the two cameras 10A and 20A having a visual field in front of the portable terminal 40A (the user U1 side) are used for photographing for generating their own eye-gaze corrected images. The two cameras 10B and 20B having a visual field behind the mobile terminal 40A are used for photographing for generating a line-of-sight correction image of the face of the person U2 on the opposite side across the position of the mobile terminal 40A from the user U1. .

携帯端末40AのCPU401は、4機のカメラ10A、20A、10B、20Bによって各々撮影された画像から顔を検出し、同一人物の顔を含む画像ペアをもとに目線補正のための画像合成を行う。これにより、ユーザU1自身の目線補正された顔画像のみならず、他の人物U2の目線補正された顔画像を得ることができる。また、携帯端末40Aの後方を視野とする2機のカメラ10B、20Bによって撮影された画像のペアのみに同一人物(人U2)の顔が検出された場合には、その人物U2の目線補正された顔画像のみを合成して得ることができる。   The CPU 401 of the portable terminal 40A detects a face from images captured by the four cameras 10A, 20A, 10B, and 20B, and performs image composition for eye-gaze correction based on an image pair including the face of the same person. Do. As a result, not only the face image corrected by the user U1 itself but also the face image corrected by the eye of another person U2 can be obtained. Further, when the face of the same person (person U2) is detected only in a pair of images taken by the two cameras 10B and 20B with the visual field behind the portable terminal 40A, the line of sight of the person U2 is corrected. Can be obtained by combining only the face images.

なお、本技術は以下のような構成もとることができる。
(1)異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を
具備する情報処理装置。
In addition, this technique can also take the following structures.
(1) A line-of-sight correction image obtained by changing an image of an eye part in the other image based on an image of an eye part in one of the two images including a human face photographed from different positions. An information processing apparatus including a control unit for generation.

(2)前記(1)に記載の情報処理装置であって、
前記制御部は、前記被写体である人物の顔の縦方向において異なる位置から第1の撮像部および第2の撮像部によって撮影された前記人物の顔を含む2つの画像を取得するように構成された
情報処理装置。
(2) The information processing apparatus according to (1),
The control unit is configured to acquire two images including the face of the person photographed by the first imaging unit and the second imaging unit from different positions in the vertical direction of the face of the person who is the subject. Information processing device.

(3)前記(2)に記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像のうち、相対的に下の位置から撮影された一方の前記画像の目の部分画像を、前記相対的に上の位置から撮影された他方の画像の目の部分画像と置き換えた前記目線補正画像を生成するように構成された
情報処理装置。
(3) The information processing apparatus according to (2),
The control unit selects a partial image of the eye of one of the two images acquired from a relatively lower position of the acquired two images, of the other image captured from the relatively upper position. An information processing apparatus configured to generate the line-of-sight correction image replaced with a partial image of an eye.

(4)前記(2)または(3)に記載の情報処理装置であって、
前記第1の撮像部は、前記被写体である人物の顔の縦方向において上側の撮像部であり、前記第2の撮像部は、前記被写体である人物の顔の縦方向において下側の撮像部であり、前記第1の撮像部は撮影画像の画質が前記第2の撮像部よりも高い
情報処理装置。
(4) The information processing apparatus according to (2) or (3),
The first imaging unit is an upper imaging unit in the vertical direction of the face of the person that is the subject, and the second imaging unit is an imaging unit that is lower in the vertical direction of the face of the person that is the subject. The first imaging unit has an image quality of a captured image higher than that of the second imaging unit.

(5)前記(1)ないし(4)のいずれかに記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像の画調を合せるように、少なくとも一方の画像に対して信号処理を行わせるように構成された
情報処理装置。
(5) The information processing apparatus according to any one of (1) to (4),
The information processing apparatus configured to cause the control unit to perform signal processing on at least one of the images so as to match the tone of the two acquired images.

(6)前記(1)ないし(5)のいずれかに記載の情報処理装置であって、
前記制御部は、前記目線補正画像と、前記取得した2つの画像のうち少なくともいずれか一方を表示部に同時に表示させるように構成された
情報処理装置。
(6) The information processing apparatus according to any one of (1) to (5),
The information processing apparatus configured to cause the display unit to simultaneously display at least one of the line-of-sight correction image and the acquired two images on the display unit.

(7)前記(2)ないし(6)のいずれかに記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像の画調を合せるように、前記第1の撮像部および前記第2の撮像部の撮影パラメータを整合させるように構成された
情報処理装置。
(7) The information processing apparatus according to any one of (2) to (6),
The information processing apparatus, wherein the control unit is configured to match shooting parameters of the first imaging unit and the second imaging unit so as to match the tones of the two acquired images.

(8)前記(2)ないし(7)のいずれかに記載の情報処理装置であって、
前記第1の撮像部が、前記情報処理装置に内蔵され、
前記第2の撮像部が、前記情報処理装置に着脱自在に取れ付けられる別体の撮像部である
情報処理装置。
(8) The information processing apparatus according to any one of (2) to (7),
The first imaging unit is built in the information processing apparatus;
The information processing apparatus, wherein the second imaging unit is a separate imaging unit that is detachably attached to the information processing apparatus.

(9)前記(1)ないし(8)のいずれかに記載の情報処理装置であって、
前記制御部は、前記生成された目線補正画像に対して編集を行うように構成された
情報処理装置。
(9) The information processing apparatus according to any one of (1) to (8),
The information processing apparatus configured to edit the generated line-of-sight correction image.

1…顔画像処理システム
1A…顔画像処理システム
10…上カメラ装置
10A…外付けカメラ
20…下カメラ装置
20A…内蔵カメラ
40…情報処理装置(情報処理システム)
40A…携帯端末
401…CPU
404…ディスプレイ
409…無線通信部
501…コントローラ
503…撮像部
508…無線通信部
DESCRIPTION OF SYMBOLS 1 ... Face image processing system 1A ... Face image processing system 10 ... Upper camera apparatus 10A ... External camera 20 ... Lower camera apparatus 20A ... Built-in camera 40 ... Information processing apparatus (information processing system)
40A ... mobile terminal 401 ... CPU
404 ... Display 409 ... Wireless communication unit 501 ... Controller 503 ... Imaging unit 508 ... Wireless communication unit

Claims (13)

異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を
具備する情報処理装置。
Control for generating a line-of-sight correction image in which the image of the eye part in one image is changed based on the image of the eye part in one of the two images including the face of a person photographed from different positions An information processing apparatus comprising a unit.
請求項1に記載の情報処理装置であって、
前記制御部は、前記被写体である人物の顔の縦方向において異なる位置から第1の撮像部および第2の撮像部によって撮影された前記人物の顔を含む2つの画像を取得するように構成された
情報処理装置。
The information processing apparatus according to claim 1,
The control unit is configured to acquire two images including the face of the person photographed by the first imaging unit and the second imaging unit from different positions in the vertical direction of the face of the person who is the subject. Information processing device.
請求項2に記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像のうち、相対的に下の位置から撮影された一方の前記画像の目の部分画像を、前記相対的に上の位置から撮影された他方の画像の目の部分画像と置き換えた前記目線補正画像を生成するように構成された
情報処理装置。
An information processing apparatus according to claim 2,
The control unit selects a partial image of the eye of one of the two images acquired from a relatively lower position of the acquired two images, of the other image captured from the relatively upper position. An information processing apparatus configured to generate the line-of-sight correction image replaced with a partial image of an eye.
請求項3に記載の情報処理装置であって、
前記第1の撮像部は、前記被写体である人物の顔の縦方向において上側の撮像部であり、前記第2の撮像部は、前記被写体である人物の顔の縦方向において下側の撮像部であり、前記第1の撮像部は撮影画像の画質が前記第2の撮像部よりも高い
情報処理装置。
The information processing apparatus according to claim 3,
The first imaging unit is an upper imaging unit in the vertical direction of the face of the person that is the subject, and the second imaging unit is an imaging unit that is lower in the vertical direction of the face of the person that is the subject. The first imaging unit has an image quality of a captured image higher than that of the second imaging unit.
請求項3に記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像の画調を合せるように、少なくとも一方の画像に対して信号処理を行わせるように構成された
情報処理装置。
The information processing apparatus according to claim 3,
The information processing apparatus configured to cause the control unit to perform signal processing on at least one of the images so as to match the tone of the two acquired images.
請求項3に記載の情報処理装置であって、
前記制御部は、前記目線補正画像と、前記取得した2つの画像のうち少なくともいずれか一方を表示部に同時に表示させるように構成された
情報処理装置。
The information processing apparatus according to claim 3,
The information processing apparatus configured to cause the display unit to simultaneously display at least one of the line-of-sight correction image and the acquired two images on the display unit.
請求項3に記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像の画調を合せるように、前記第1の撮像部および前記第2の撮像部の撮影パラメータを整合させるように構成された
情報処理装置。
The information processing apparatus according to claim 3,
The information processing apparatus, wherein the control unit is configured to match shooting parameters of the first imaging unit and the second imaging unit so as to match the tones of the two acquired images.
請求項2に記載の情報処理装置であって、
前記第1の撮像部が、前記情報処理装置に内蔵され、
前記第2の撮像部が、前記情報処理装置に着脱自在に取れ付けられる別体の撮像部である
情報処理装置。
An information processing apparatus according to claim 2,
The first imaging unit is built in the information processing apparatus;
The information processing apparatus, wherein the second imaging unit is a separate imaging unit that is detachably attached to the information processing apparatus.
請求項1に記載の情報処理装置であって、
前記制御部は、前記生成された目線補正画像に対して編集を行うように構成された
情報処理装置。
The information processing apparatus according to claim 1,
The information processing apparatus configured to edit the generated line-of-sight correction image.
異なる位置から人物の顔を撮影する撮像ユニットと、
前記撮像ユニットによって撮影された前記人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部と
を具備する情報処理装置。
An imaging unit for photographing a person's face from different positions;
Based on the image of the eye part in one of the two images including the face of the person photographed by the imaging unit, a line-of-sight correction image is generated by changing the image of the eye part in the other image And an information processing apparatus.
制御部が、
異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する
情報処理方法。
The control unit
Based on the image of the eye part in one of the two images including the face of a person photographed from different positions, a line-of-sight correction image is generated by changing the image of the eye part in the other image Processing method.
異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を
具備する情報処理システム。
Control for generating a line-of-sight correction image in which the image of the eye part in one image is changed based on the image of the eye part in one of the two images including the face of a person photographed from different positions An information processing system comprising a section.
異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部として
コンピュータを機能させるプログラム。
Control for generating a line-of-sight correction image in which the image of the eye part in one image is changed based on the image of the eye part in one of the two images including the face of a person photographed from different positions A program that allows a computer to function as a part.
JP2014139750A 2014-07-07 2014-07-07 Information processor, information processing method, information processing system and program Pending JP2016019092A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014139750A JP2016019092A (en) 2014-07-07 2014-07-07 Information processor, information processing method, information processing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014139750A JP2016019092A (en) 2014-07-07 2014-07-07 Information processor, information processing method, information processing system and program

Publications (1)

Publication Number Publication Date
JP2016019092A true JP2016019092A (en) 2016-02-01

Family

ID=55234033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014139750A Pending JP2016019092A (en) 2014-07-07 2014-07-07 Information processor, information processing method, information processing system and program

Country Status (1)

Country Link
JP (1) JP2016019092A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034157A1 (en) * 2016-08-16 2018-02-22 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and imaging device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034157A1 (en) * 2016-08-16 2018-02-22 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and imaging device
JPWO2018034157A1 (en) * 2016-08-16 2019-06-13 ソニーセミコンダクタソリューションズ株式会社 Image processing apparatus, image processing method, and imaging apparatus
EP3503530A4 (en) * 2016-08-16 2019-08-21 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and imaging device
US10878546B2 (en) 2016-08-16 2020-12-29 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and imaging device
JP7059185B2 (en) 2016-08-16 2022-04-25 ソニーセミコンダクタソリューションズ株式会社 Image processing equipment, image processing method, and imaging equipment

Similar Documents

Publication Publication Date Title
JP6678122B2 (en) Image processing apparatus, image processing method, and image processing program
JP4442330B2 (en) Electronic camera and electronic camera system
JP6192940B2 (en) Photography equipment and cooperative photography method
US9332208B2 (en) Imaging apparatus having a projector with automatic photography activation based on superimposition
US8638372B2 (en) Image capture unit with changeable image capture direction
WO2015194084A1 (en) Information processing device, information processing system, and information processing method and program
KR102235231B1 (en) Imaging control apparatus and control method therefor
US10063773B2 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
JP2008118276A (en) Mobile equipment with camera and photography assisting method therefor
JP2015186020A (en) Display apparatus, photographing apparatus, and display method
KR20170057574A (en) Stick for taking a self picture and control method thereof
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
JP2014068081A (en) Imaging apparatus and control method of the same, program and storage medium
JP2016063244A (en) Imaging apparatus and image display control method
JP2016019092A (en) Information processor, information processing method, information processing system and program
JP7128347B2 (en) Image processing device, image processing method and program, imaging device
JP2019068261A (en) Distribution system and distribution method, distribution device and distribution program, and receiving device and receiving program
JP5615086B2 (en) Imaging apparatus, control method thereof, and program
CN111953870A (en) Electronic device, control method of electronic device, and computer-readable medium
JP2015126243A (en) Imaging device, method of controlling display control device, and method of controlling recording device
JP6456093B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2013115656A (en) Photographing apparatus
JP6840903B2 (en) Imaging device, imaging method, and program
CN112653830B (en) Group photo shooting implementation method, wearable device, computer device and storage medium
JP7054437B2 (en) Image processing equipment, image processing methods and programs