JP5718502B2 - Image creating apparatus and image creating method - Google Patents
Image creating apparatus and image creating method Download PDFInfo
- Publication number
- JP5718502B2 JP5718502B2 JP2014025772A JP2014025772A JP5718502B2 JP 5718502 B2 JP5718502 B2 JP 5718502B2 JP 2014025772 A JP2014025772 A JP 2014025772A JP 2014025772 A JP2014025772 A JP 2014025772A JP 5718502 B2 JP5718502 B2 JP 5718502B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- unit
- enlarged
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Description
本発明は、画像を作成する画像作成装置及びそのための画像作成方法に関する。 The present invention relates to an image creating apparatus for creating an image and an image creating method therefor.
近年、デジタルスチルカメラや撮影機能付携帯電話機等の各種の撮影装置において動画像作成機能を有するものが増えてきている。しかしながら、このような撮影装置を用いてユーザが望むような動画像を撮影するのは困難である。これは、一般に動画像の撮影が比較的長時間に及ぶためである。また、ユーザが撮影したいと考える被写体が撮影シーン内に複数存在しているような場合に、何れかの被写体のみに注目して撮影を行うと、注目する被写体を変える毎に撮影装置の向きを変える必要が生じる。これに対し、全ての被写体が撮影されるように画角を広くすると、画像内の個々の被写体の大きさが相対的に小さくなってしまう。 In recent years, various types of photographing apparatuses such as a digital still camera and a mobile phone with a photographing function have a moving image creation function. However, it is difficult to capture a moving image desired by the user using such an imaging device. This is because generally moving images are taken for a relatively long time. In addition, when there are a plurality of subjects that the user wants to shoot in the shooting scene, and shooting is performed while paying attention to only one of the subjects, the orientation of the shooting device is changed each time the subject of interest is changed. Need to change. On the other hand, if the angle of view is widened so that all the subjects are photographed, the size of each subject in the image becomes relatively small.
特許文献1には、全体画像と個々の被写体の顔の画像とを同時に見られるように表示する技術に関する提案がなされている。この特許文献1においては、入力された画像における顔部分の画像を検出し、検出した顔部分の画像を拡大した上で、もとの全体画像と顔画像とを合成して表示するようにしている。このような技術により、全体画像中の人物と、各人物の顔との対応をユーザが容易に把握することができる。
特許文献1の技術は、人物の顔画像を1人ずつ拡大表示するようにしており、仮に全体画像中のある狭い画像領域に複数の人物が混在しているような場合であっても、1人ずつ顔画像を拡大表示するようにしている。ここで、狭い画像領域に複数の人物が同時に存在しているような画像においては、それらの人物の間には何らかの関係があると考えられる。したがって、これらの人物についてはその関係性が分かるように、同じ画像領域内に同時に表示できるようにすることが望ましい。また、このような領域が複数存在する場合には、画像領域中の人物の数に応じて各画像領域の大きさを変更することがユーザにとって見易い動画像となると考えられる。
In the technique of
本発明は、上記の事情に鑑みてなされたもので、全体画像中に複数の人物被写体が写っている画像領域が存在する場合において、各画像領域の人物の数に応じて画像領域の大きさを変更した画像を作成可能な画像作成装置及びそのための画像作成方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and in the case where an image area in which a plurality of human subjects are present exists in the entire image, the size of the image area according to the number of persons in each image area. It is an object of the present invention to provide an image creating apparatus capable of creating an image with a modified image and an image creating method therefor.
上記の目的を達成するために、本発明の第1の態様の画像作成装置は、画像を表示する表示部と、上記表示部に表示されている画像中の画像領域に含まれる顔を検出する顔検出部と、上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成する顔画像生成部と、上記画像領域に含まれる顔の数に従って上記顔画像生成部で生成された各顔画像の拡大率を決定する拡大率判定部と、上記表示部の画面大きさに対応した背景画像中に、上記拡大率判定部によって決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成する画像作成部とを具備し、上記拡大した顔画像が選択された場合に、上記拡大した顔画像の記録を行うことを特徴とする。 In order to achieve the above object, an image creating apparatus according to a first aspect of the present invention detects a display unit that displays an image and a face included in an image area in the image displayed on the display unit. Generated by the face detection unit, a face image generation unit that generates a face image including the face detected by the face detection unit for each image region, and the face image generation unit according to the number of faces included in the image region. In addition, an enlargement factor determination unit that determines the enlargement factor of each face image, and a face image that is enlarged according to the enlargement factor determined by the enlargement factor determination unit in the background image corresponding to the screen size of the display unit. And an image creating unit that creates a synthesized composite image. When the enlarged face image is selected, the enlarged face image is recorded.
上記の目的を達成するために、本発明の第2の態様の画像作成装置は、画像を表示する表示部と、上記表示部に表示されている画像中の画像領域に含まれる顔を検出する顔検出部と、上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成する顔画像生成部と、上記画像領域に含まれる顔の数に従って上記顔画像生成部で生成された各顔画像の拡大率を決定する拡大率判定部と、上記表示部の画面大きさに対応した背景画像中に、上記拡大率判定部によって決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成する画像作成部とを具備し、記録の指示に従い、上記合成画像の記録を行うことを特徴とする。 In order to achieve the above object, an image creating apparatus according to a second aspect of the present invention detects a display unit that displays an image and a face included in an image area in the image displayed on the display unit. Generated by the face detection unit, a face image generation unit that generates a face image including the face detected by the face detection unit for each image region, and the face image generation unit according to the number of faces included in the image region. In addition, an enlargement factor determination unit that determines the enlargement factor of each face image, and a face image that is enlarged according to the enlargement factor determined by the enlargement factor determination unit in the background image corresponding to the screen size of the display unit. An image creating unit for creating a synthesized image, and recording the synthesized image in accordance with a recording instruction.
上記の目的を達成するために、本発明の第3の態様の画像作成方法は、表示部に表示されている画像中の画像領域に含まれる顔を顔検出部によって検出し、上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成し、上記画像領域に含まれる顔の数に従ってトリミング制御部で生成された各顔画像の拡大率を決定し、上記表示部の画面大きさに対応した背景画像中に、上記決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成し、上記画像領域が選択された場合に、上記選択された画像の記録を行うことを特徴とする。 In order to achieve the above object, an image creating method according to a third aspect of the present invention is a method in which a face included in an image region in an image displayed on a display unit is detected by a face detection unit, A face image including a face detected by the step is generated for each image area, and the enlargement ratio of each face image generated by the trimming control unit is determined according to the number of faces included in the image area, and the screen of the display unit is determined. In the background image corresponding to the size, a composite image is created by synthesizing the face image enlarged in accordance with the determined enlargement ratio, and when the image area is selected, the selected image is recorded. It is characterized by performing.
上記の目的を達成するために、本発明の第4の態様の画像作成方法は、表示部に表示されている画像中の画像領域に含まれる顔を顔検出部によって検出し、上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成し、上記画像領域に含まれる顔の数に従ってトリミング制御部で生成された各顔画像の拡大率を決定し、上記表示部の画面大きさに対応した背景画像中に、上記決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成し、記録の指示に従い、上記合成画像の記録を行うことを特徴とする。 In order to achieve the above object, an image creating method according to a fourth aspect of the present invention is such that a face included in an image region in an image displayed on a display unit is detected by a face detection unit, and the face detection unit A face image including a face detected by the step is generated for each image area, and the enlargement ratio of each face image generated by the trimming control unit is determined according to the number of faces included in the image area, and the screen of the display unit is determined. A synthesized image obtained by synthesizing a face image enlarged in accordance with the determined enlargement ratio is created in a background image corresponding to the size, and the synthesized image is recorded in accordance with a recording instruction.
本発明によれば、全体画像中に複数の人物被写体が写っている画像領域が存在する場合において、各画像領域の人物の数に応じて画像領域の大きさを変更した画像を作成可能な画像作成装置及びそのための画像作成方法を提供することができる。 According to the present invention, when there is an image area in which a plurality of human subjects are present in the entire image, an image capable of creating an image in which the size of the image area is changed according to the number of persons in each image area A creation apparatus and an image creation method therefor can be provided.
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る動画像作成装置の一例としてのデジタルカメラ(以下、単にカメラと記す)の構成を示す図である。図1に示すカメラ100は、制御部101と、撮像部102と、顔検出部103と、表示部104と、位置指定部105と、操作部106と、記録部107と、時計部108とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a digital camera (hereinafter simply referred to as a camera) as an example of a moving image creation apparatus according to an embodiment of the present invention. 1 includes a
制御部101は、カメラ100の各ブロックの動作を統括的に制御する制御回路である。この制御部101は、ユーザによる位置指定部105や操作部106の操作に応じて、撮像部102、顔検出部103、表示部104等の動作制御を行う。また、制御部101は、トリミング制御部1011と、トリミング画像合成制御部1012と、画像処理部1013とを有している。
The
顔画像生成部としての機能を有するトリミング制御部1011は、後述する合成動画像を生成するためのトリミング制御を行う。即ち、トリミング制御部1011は、表示部104において表示された画像においてユーザにより指定された複数のポイントのそれぞれに対応した所定の画像領域であるトリミング範囲を決定し、決定した各トリミング範囲内の画像をスルー画表示用の画像処理がなされた画像又は撮像素子102cを介して得られた画像からトリミングして顔画像を生成する処理を行う。なお、本実施形態における「顔画像」とは、必ずしも画像中に1人分の顔が写っている画像を示すものではない。トリミング範囲中に複数の顔が存在していた場合にはその複数の顔を含む画像も本実施形態における「顔画像」になる。
A
指定位置関係判定部、拡大率判定部、及び動画像作成部としての機能を有するトリミング画像合成制御部1012は、トリミング制御部1011によってトリミングされた顔画像と表示部104に表示されている画像の全体を示す全体画像とを合成して1枚の合成動画像を生成するための制御を行う。即ち、トリミング画像合成制御部1012は、各顔画像の位置関係から各顔画像の合成位置を決定するとともに、各顔画像中の顔の数から各顔画像の拡大率を決定する。そして、トリミング画像合成制御部1012は、画像処理部1013による顔画像と全体画像との合成動画像の作成を制御する。
A trimming image
画像処理部1013は、撮像部102において得られた画像に対する画像処理を行う。この画像処理には、例えば撮像部102において得られた画像に対する色補正処理、階調補正処理、拡大縮小処理、圧縮処理(静止画圧縮又は動画圧縮)、圧縮された画像に対する伸張処理等が含まれる。また、画像処理部1013は、トリミング画像合成制御部1012とともに動画像作成部としての機能も有し、トリミング画像合成制御部1012の制御に従って合成動画像を作成することも行う。さらに、画像処理部1013は、トリミング範囲の位置等の種々のデータを記録しておくための仮記録部1013aを有している。この仮記録部1013aは例えばRAMで構成されている。
The
撮像部102は、レンズ102a、絞り102b、撮像素子102c、A/D変換器(ADC)102d等を有している。レンズ102aは、被写体からの光束を撮像素子102cの光電変換面に結像させるための光学系である。ここで、本実施形態におけるレンズ102aは、ズームレンズを含む光学系であり、該ズームレンズを駆動することによって焦点距離を可変になされている。レンズ102aの焦点距離を変更することによって画角を調整することが可能である。絞り102bは、撮像素子102cの光電変換面への光束の入射量を制限する。撮像素子102cは、画素が2次元状に配置された光電変換面を有し、レンズを介して入射した光束を電気信号(画像信号)に変換する。ADC102dは、撮像素子102cで得られたアナログの画像信号をデジタルの画像データ(以下、単に画像と言う)に変換する。このような構成を有する撮像部102は、制御部101の制御に従って被写体を撮像し、被写体に係る画像を取得する。
The
顔検出部103は、撮像部102で得られた画像における顔を検出する。この顔検出部103は、例えば目、鼻、口といった顔パーツの陰影を画像中から検出することで顔を検出する。顔検出部103による顔検出結果は、撮像部102におけるレンズの焦点調節等に利用される。また、本実施形態における顔検出部103は、視線検知部1031としての機能も有している。即ち、顔検出部103の視線検知部1031は、顔の向き及び黒目と白目の位置関係を検知することで、被写体の視線を検知する。
The
表示部104は、例えばカメラ100の背面に設けられた液晶ディスプレイ(LCD)や有機エレクトロルミネッセンスディスプレイ(ELD)等の表示部である。この表示部104は、制御部101の制御の下、撮像部102で得られた画像等の各種の画像を表示する。
The
位置指定部105は、例えば表示部104と一体的に構成されたタッチパネルであり、表示部104の表示画面上の任意の位置を指定するための操作部である。この位置指定部105は、表示部104の表示画面へのユーザの指等の接触を検出し、検出位置に応じた信号を制御部101に出力する。制御部101は、位置指定部105からの信号を識別することで、表示部104の表示画面上のどの位置へのユーザの指等の接触があったかを認識する。なお、制御部101は、位置指定部105の出力から、連続的な接触位置変化を検出した場合にユーザの指等がスライドされたことを認識する。
The
操作部106は、位置指定部105以外の各種の操作部である。この操作部106は、電源ボタン、レリーズボタン、ズームスイッチ、モードダイヤル等が含まれる。電源ボタンはカメラ100の電源のオン又はオフを指示するための操作部である。レリーズボタンはカメラ100による撮影(記録用の画像取得)を指示するための操作部である。ズームスイッチは撮像部102のレンズのズーム駆動を指示するための操作部である。モードダイヤルはカメラ100の動作モードを撮影モード(静止画、動画)や再生モードに切り替えるための操作部である。
The
記録部107は、撮像部102で得られ制御部101で圧縮されて得られた記録用の画像を記録する。この記録部107は、例えばカメラ100に着脱自在になされたメモリカードである。時計部108は、撮影日時等の各種の時間を計時する。記録部107に記録される画像の例えばヘッダ情報部に撮影日時を関連付けしておくことにより記録部107に記録される画像の管理が行い易くなる。
The
図2は、本実施形態におけるカメラ100の動作の概要を示す図である。以降の動作はカメラ100の撮影モードが例えば動画撮影モードに切り替えられた際に実行される。
FIG. 2 is a diagram showing an outline of the operation of the
まず、カメラ100による撮影動作を実行させるに当たって、ユーザは、図2(a)に示すように、自身が撮影したいと考える被写体がレンズ102aの画角内に全て入るようにカメラ100の設定を行う。図2(a)の例は、ユーザが結婚式やパネルディスカッション等の多人数が集まるような状況で撮影を行うような場合を示している。このような状況において、ユーザは、1人からなる第1の被写体(例えば、結婚式の場合には挨拶する人、パネルディスカッションの場合には司会者)200aと複数人からなる第2の被写体(例えば、結婚式の場合には新郎新婦、パネルディスカッションの場合には討論者)200bの両方を撮影したいと考える場合がある。この場合に、ユーザは、レンズ102aの画角A内に第1の被写体200aと第2の被写体200bの両方が入るように、本実施形態に係るカメラ100の設置位置を決め、またレンズ102aの画角を調整(図2(a)の場合はズームレンズを広角側に調整)する。
First, when executing the shooting operation by the
なお、カメラ100では電源投入後にスルー画表示(ライブビュー表示等とも呼ばれる)が実行される。スルー画表示においては撮像部102による画像の取得が一定のタイミング毎に実行される。撮像部102において画像の取得がなされる毎に、制御部101の画像処理部1013において画像処理(階調補正処理、色補正処理、縮小処理等)が施される。これにより、撮像部102で取得された画像の大きさ(画素数)が表示部104の画面大きさ(表示画素数)に合わされる。そして、画像処理された画像が制御部101の制御に従って表示部104に表示される。このようなスルー画表示により、ユーザは表示部104を用いて被写体の観察を行うことが可能である。
In the
図2(a)のようにしてカメラ100を設定すると、カメラ100のスルー画表示が開始され、図2(b)に示すようにして、レンズ102aの画角内の画像が表示部104に表示される。図2(b)のようなスルー画表示がなされている状態において、ユーザは表示部104の画面上の任意の位置に例えば指301を接触させる。上述したように、表示部104の画面上のある位置への接触があると、その位置に対応した信号が位置指定部105から制御部101に入力される。制御部101が表示部104の画面への接触を認識すると、その接触位置における人物の顔が顔検出部103により認識される。この位置において人物の顔が認識された場合には、その人物の顔を含む画像領域を示す枠表示104aがなされる。また、スルー画表示時には、拡大開始ボタン104c、記録ボタン104kも表示される。ユーザが、指301等を記録ボタン104kに接触させると、通常の動画撮影(図2(b)に示す画角内の画像を動画像として記録する処理)が行われる。
When the
図2(b)に示すような選択がなされた後、さらに、ユーザは、図2(c)のようにして、表示部104の画面上の別の位置に例えば指301を接触させる。この場合も、制御部101が表示部104の画面への接触を認識すると、その接触位置の人物の顔を含む画像領域を示す枠表示がなされる。ここで、図2(c)はユーザが指301を矢印B方向にスライドさせて複数の人物を選択した例を示している。図2(c)のように複数の人物の顔が認識された場合にはその全ての人物の顔を含む画像領域を示す枠表示104bがなされる。
After the selection as shown in FIG. 2B is made, the user further brings the
その後、ユーザは、指301を拡大開始ボタン104cに接触させる。制御部101が拡大開始ボタン104cの位置への指301等の接触を認識すると、一部拡大スルー画表示が実行される。この一部拡大スルー画表示においては、ユーザによって指定された位置を含む画像領域であるトリミング領域内の画像がトリミングされて顔画像が生成される。そして、この生成された各顔画像の拡大画像と全体画像とが、表示部104の画面大きさに対応した大きさを有する所定の背景画像に合成されて合成画像が生成され、この合成画像がスルー画表示される。
Thereafter, the user brings the
図2(d)に一部拡大スルー画表示の例を示す。ここで、拡大画像104dの表示大きさと拡大画像104eの表示大きさとはそれぞれの画像中の顔(人物)の数に応じて変化させるものとする。また、各拡大画像の合成位置は表示部104に表示されていた全体画像中での各顔の位置関係と対応したものとする。例えば、図2(d)に示す拡大画像104dに対応した顔画像104aは表示部104の画面左上に存在し、顔画像104a中の顔の数は1つである。また、拡大画像104eに対応した顔画像104bは表示部104の画面右上に存在し、顔画像104b中の顔の数は2つである。この場合、拡大画像104dは背景画像の左上部に合成するとともに、拡大画像104eは背景画像の右上部に合成する。さらに、拡大画像104dの大きさと拡大画像104eの大きさとの比を顔の数の比と同じ1:2とする。また、このようにして背景画像に拡大画像104d、104eを合成したことによって生じる残余の部分に全体画像104fを縮小して合成する。このようにして生成される合成動画像をスルー画表示する。
FIG. 2D shows an example of a partially enlarged through image display. Here, the display size of the
なお、図2(d)では、表示部104の長辺に沿って平行な方向である顔画像の水平方向については顔の数の比と一致するように拡大しているが、表示部104の短辺に沿って平行な方向である顔画像の垂直方向の長さについては一定倍率で拡大している。勿論、水平・垂直の長さの両方とも、顔の数の比に一致するように拡大を行うようにしても良い。
In FIG. 2D, the horizontal direction of the face image, which is a direction parallel to the long side of the
図2(d)に示すような一部拡大スルー画表示を行うことにより、結婚式やパネルディスカッション等において実際にやり取りをしている人物のみを抽出して拡大表示することができ、結婚式やパネルディスカッション等において実際にやり取りをしている各人物の表情を詳細に観察することができる。また、顔画像中の顔の数が多くなるほど拡大画像の大きさが大きくなるので、顔画像中の顔の数が多くなったとしても各顔の表情の観察が容易である。また、各拡大画像の位置によって人物の位置関係を大まかに把握することができるとともに、全体画像によって人物の位置関係を詳細に把握することもできる。 By performing a partially enlarged live view display as shown in FIG. 2 (d), it is possible to extract and enlarge only the person actually interacting in a wedding or a panel discussion. It is possible to observe in detail the facial expressions of each person actually communicating in a panel discussion or the like. Further, since the size of the enlarged image increases as the number of faces in the face image increases, even if the number of faces in the face image increases, the expression of each face can be easily observed. In addition, it is possible to roughly grasp the positional relationship of the person based on the position of each enlarged image, and it is also possible to grasp the positional relationship of the person in detail based on the entire image.
ここで、図2(d)に示す一部拡大スルー画表示時には、拡大終了ボタン104g、記録ボタン104hも表示される。制御部101が拡大終了ボタン104gの位置への指301等の接触を認識すると、一部拡大スルー画表示が終了され、もとのスルー画表示に戻る。また、制御部101が記録ボタン104hの位置への指301等の接触を認識すると、拡大画像104d、104eと全体画像104fとを図2(d)に示すように配置してなる合成動画像が制御部101の画像処理部1013で動画圧縮された後、記録部107に記録される。
Here, when displaying a partially enlarged through image shown in FIG. 2D, an enlargement end button 104g and a
さらに、図2(d)に示す一部拡大スルー画表示時において、制御部101が拡大画像104d又は拡大画像104eの位置への指301等の接触を認識すると、その位置の拡大画像が図2(e)に示すようにしてさらに全面スルー画表示される。ここで、図2(e)に示す全面スルー画表示時には、戻るボタン104iと記録ボタン104jも表示される。制御部101が戻るボタン104iの位置への指301等の接触を認識すると、全面スルー画表示が終了され、もとの一部拡大スルー画表示に戻る。また、制御部101が記録ボタン104jの位置への指301等の接触を認識すると、表示部104に現在表示中の拡大画像が制御部101の画像処理部1013で動画圧縮された後、記録部107に記録される。
2D, when the
次に、図3を参照してカメラ100による動画像作成方法の具体的な処理の流れを説明する。図3は、カメラ100の動画像撮影動作を示すフローチャートである。
Next, a specific processing flow of the moving image creation method by the
カメラ100の動作モードが動画撮影モードに設定されることによって、図3の動作が開始される。制御部101は、まず、スルー画表示を実行する(ステップS101)。なお、このスルー画表示の際には、拡大開始ボタン104c、記録ボタン104kも表示させる。上述したように、ユーザが、指301等を記録ボタン104kに接触させると、通常の動画撮影が行われる。ここでは、通常の動画撮影についての詳細な説明は省略する。
The operation of FIG. 3 is started when the operation mode of the
スルー画表示の後、制御部101は、ユーザによって指定された顔画像の数を示すパラメータn(n=1、2、3、…)を初期値1に設定する(ステップS102)。その後、制御部101は、位置指定部105の出力から、ユーザによって表示部104の画面内に対する位置指定がなされたか否かを判定する(ステップS103)。なお、ここでの位置指定はスライド操作による複数の位置の指定も含むものとする。ステップS103の判定において、位置指定がなされた場合に、制御部101は、ユーザにより指定された位置に含まれる顔を顔検出部103により検出する。そして、検出した顔を含む画像領域からなる顔画像Fnの位置(Xn,Yn)を仮記録部1013aに記録させる。また、顔画像Fnを示す枠を、例えば図2(b)や図2(c)のようにして表示部104に表示させる(ステップS104)。
After the through image display, the
ここで、位置(Xn,Yn)は、表示部104の所定位置(例えば、左下端)を(0,0)とし、この(0,0)から水平方向、垂直方向にX軸、Y軸を設定した場合の相対位置とする。また、検出された顔が1つのみである場合の位置(Xn,Yn)は、例えば図4(a)に示すように、顔の中心位置(顔を円形と見なした場合の中心位置)とする。なお、上述したように、ユーザによるスライド操作がなされた場合には複数の顔が検出される。このような複数の顔が検出された場合の位置(Xn,Yn)は、例えば、指定された複数の顔位置を平均した位置とする。この他、図4(b)に示すように、各顔を囲むように外接する矩形の画像領域の重心位置を位置(Xn,Yn)としても良い。 Here, the position (Xn, Yn) is a predetermined position (for example, the lower left corner) of the display unit 104 (0, 0), and from this (0, 0), the X and Y axes are set in the horizontal and vertical directions. The relative position when set. The position (Xn, Yn) when there is only one detected face is the center position of the face (center position when the face is regarded as a circle), for example, as shown in FIG. And As described above, a plurality of faces are detected when the user performs a slide operation. The position (Xn, Yn) when such a plurality of faces are detected is, for example, a position obtained by averaging a plurality of designated face positions. In addition, as shown in FIG. 4B, the position of the center of gravity of the rectangular image area that circumscribes each face may be set as the position (Xn, Yn).
顔画像Fnの位置記録及び枠表示の後、制御部101はパラメータnに1を加えた後(ステップS105)、ステップS103の判定を再び行う。また、ステップS103の判定において、位置指定がなされていない場合に、制御部101は、ユーザによる位置指定済みの指示操作がなされたか、即ちユーザの指等が表示部104の画面上に表示されている拡大開始ボタン104cの位置に接触したか否かを判定する(ステップS106)。ステップS106の判定において、位置指定済みの指示操作がなされていない場合に、制御部101は、所定時間(例えば10秒程度)が経過したか否かを判定する(ステップS107)。ステップS107の判定において、所定時間が経過した場合に、制御部101は、仮記録部1013aに記録されている顔画像Fnの位置に係るデータをクリアする(ステップS108)。その後、処理がステップS101に戻り、制御部101はスルー画表示を継続する。一方、ステップS107の判定において、所定時間が経過していない場合に、制御部101は、仮記録部1013aに記録されている顔画像Fnの位置に係るデータをクリアせずに、スルー画表示を継続する。
After the position recording and frame display of the face image Fn, the
また、ステップS106の判定において、位置指定済みの指示操作がなされた場合に、制御部101は、ユーザによって指定された位置に存在する各顔画像の位置関係を判定するための指定位置関係判定処理を行う(ステップS109)。
Also, in the determination in step S106, when an instruction operation for which position designation has been performed is performed, the
ここで、指定位置関係判定処理について説明する。図5は、指定位置関係判定処理について示すフローチャートである。指定位置関係判定処理は、ユーザにより指定された顔画像の位置関係を概略的に判定することによって、拡大画像の合成位置を決定するための処理である。 Here, the specified positional relationship determination process will be described. FIG. 5 is a flowchart showing the specified positional relationship determination process. The designated positional relationship determination process is a process for determining the composite position of the enlarged image by roughly determining the positional relationship of the face image designated by the user.
図5において、制御部101は、顔画像の数を示すパラメータnに1をセットする(ステップS201)。次に、制御部101は、仮記録部1013aに記録されている顔画像Fn、Fn+1の位置情報(Xn,Yn)、(Xn+1,Yn+1)を取得する(ステップS202)。
In FIG. 5, the
その後、制御部101は、顔画像Fnの垂直方向位置Ynと顔画像Fn+1の垂直方向位置Yn+1との差が所定値以上(例えば顔画像Fnにおける顔幅以上)であるか否かを判定する(ステップS203)。ステップS203の判定において、YnとYn+1との差が所定値以上でない場合に、制御部101は、YnとYn+1の平均が表示部104の画面下半分の位置に対応しているか否かを判定する(ステップS204)。即ち、ステップS204においては、図4(a)に示すようにして、表示部104の垂直方向幅(垂直方向画素数)をHとした場合に、(Yn+(Yn+1))/2がH/2よりも小さいか否かを判定する。ステップS204の判定において、YnとYn+1の平均が表示部104の画面下半分の位置に対応している場合には、制御部101は、一部拡大スルー画表示時の拡大画像Fn'と拡大画像Fn+1'の垂直方向の合成位置を表示部104の画面下側とする(ステップS205)。一方、ステップS204の判定において、YnとYn+1の平均が表示部104の画面下半分の位置に対応していない場合に、制御部101は、一部拡大スルー画表示時の拡大画像Fn'と拡大画像Fn+1'の垂直方向の合成位置を表示部104の画面上側とする(ステップS206)。
Thereafter, the
例えば、図6(a)のように、2つの顔画像F1、F2がともに表示部104の画面上側の位置にある場合には、Y1とY2の平均が表示部104の画面上半分に対応した位置となる。この場合には、拡大画像F1'、F2'の合成位置を、図6(b)に示すように、画面上側位置とする。なお、実際には、拡大画像F1'、F2'の垂直方向の合成位置を画面上端位置とすることが好ましい。これは、全体画像の合成範囲をなるべく広くとれるようにするためである。一方、図6(c)のように、顔画像F1、F2がともに表示部104の画面下側の位置にある場合には、Y1とY2の平均が表示部104の画面下半分に対応した位置となる。この場合には、拡大画像F1'、F2'の合成位置を、図6(d)に示すように、画面下側位置とする。この場合も、拡大画像F1'、F2'の垂直方向の合成位置を画面下端位置とすることが好ましい。
For example, as shown in FIG. 6A, when two face images F1 and F2 are both at the upper position on the screen of the
また、ステップS203の判定において、YnとYn+1との差が所定値以上である場合に、制御部101は、Yが大きい方の顔画像に対応した拡大画像の垂直方向の合成位置を表示部104の画面上側に、Yが小さい方の顔画像に対応した拡大画像の垂直方向の合成位置を表示部104の画面下側にする(ステップS207)。例えば、図6(e)のように、顔画像F1が表示部104の画面上側の位置にあり、顔画像F2が表示部104の画面下側の位置にある場合には、Y1とY2の差が大きくなる。この場合には、図6(f)に示すように、拡大画像F1'の合成位置を画面上側位置とし、拡大画像F2'の合成位置を画面下側位置とする。この場合も、拡大画像F1'の垂直方向の合成位置を画面上端位置とし、拡大画像F2'の垂直方向の合成位置を画面下端位置とすることが好ましい。
If the difference between Yn and Yn + 1 is greater than or equal to the predetermined value in the determination in step S203, the
ステップS205〜S207の処理によって、拡大画像Fn'、Fn+1'の垂直方向の合成位置を決定した後、制御部101は、XとXn+1とを比較して、XnがXn+1よりも小さいか、即ち顔画像Fnが顔画像Fn+1よりも表示部104の画面左側に存在しているか否かを判定する(ステップS208)。ステップS208の判定において、XnがXn+1よりも小さい場合に、制御部101は、一部拡大スルー画表示時の拡大画像Fn'の水平方向の合成位置を表示部104の画面左側とし、拡大画像Fn+1'の水平方向の合成位置を表示部104の画面右側とする(ステップS209)。一方、ステップS208の判定において、XnがXn+1よりも小さくない場合に、制御部101は、一部拡大スルー画表示時の拡大画像Fn'の水平方向の合成位置を表示部104の画面右側とし、拡大画像Fn+1'の水平方向の合成位置を表示部104の画面左側とする(ステップS210)。
After determining the combined position in the vertical direction of the enlarged images Fn ′ and Fn + 1 ′ by the processing in steps S205 to S207, the
例えば、図6(a)のように、顔画像F1が表示部104の画面左側の位置にあり、顔画像F2が表示部104の画面右側の位置にある場合には、X1がX2よりも小さくなる。この場合には、拡大画像F1'の合成位置を、図6(b)に示すように、画面左側位置とする。一方、拡大画像F2'の合成位置を画面右位置とする。また、例えば、図6(c)のように、顔画像F1が表示部104の画面右側の位置にあり、顔画像F2が表示部104の画面左側の位置にある場合には、X1がX2よりも大きくなる。この場合には、拡大画像F1'の合成位置を、図6(d)に示すように、画面右側位置とする。一方、拡大画像F2'の合成位置を画面左側位置とする。なお、実際の水平方向の合成位置は画面端から順次拡大画像が並ぶように決定していくことが好ましい。例えば、拡大画像F1'の合成位置を左側、拡大画像F2'の合成位置を右側とするように決定された場合には、拡大画像F1'の水平方向の合成位置を表示部104の画面左端位置、拡大画像F2'の水平方向の合成位置を表示部104の画面右端位置とする。その後、例えば拡大画像F3'の合成位置を左側とするように決定された場合には、拡大画像F1'の右隣の位置に拡大画像F3'の水平方向の合成位置を決定する。
For example, as shown in FIG. 6A, when the face image F1 is at the position on the left side of the screen of the
ステップS209〜S210の処理によって、拡大画像Fn'、Fn+1'の水平方向の合成位置を決定した後、制御部101は、全ての拡大画像の合成位置を決定したか否かを判定する(ステップS211)。ステップS211の判定において、全ての拡大画像の合成位置を決定していない場合に、制御部101は、nに2を加える(ステップS212)。その後、処理がステップS202に戻り、制御部101は、次の2つの拡大画像の合成位置決定を行う。一方、ステップS211の判定において、全ての拡大画像の合成位置を決定した場合に、制御部101は、図5の処理を終了させて図3の処理に復帰する。
After determining the horizontal combined position of the enlarged images Fn ′ and Fn + 1 ′ by the processing of steps S209 to S210, the
以上のような指定位置関係判定処理を行うことにより、一部拡大スルー画表示時に表示されている顔画像の位置関係を拡大画像の位置関係と対応させることが可能である。なお、図5の処理では、各顔画像の位置のみで各顔画像の位置関係を概略的に判定するようにしている。これに対し、視線検知部1031で検知される視線に従って拡大画像の合成位置を決定するようにしても良い。例えば、判定対象となっている2つの顔画像の視線が向き合うように合成位置を決定するようにしても良い。
By performing the specified positional relationship determination process as described above, it is possible to make the positional relationship of the face image displayed when displaying a partially enlarged through image correspond to the positional relationship of the enlarged image. In the process of FIG. 5, the positional relationship between the face images is roughly determined based only on the position of each face image. On the other hand, you may make it determine the synthetic | combination position of an enlarged image according to the gaze detected by the
また、図5の例では、指定位置の関係判定を2画像ずつ行うようにしている。したがって、指定された顔画像の数が奇数の場合には余りが生じることになる。この場合は、1つの顔画像に対して合成位置を決定することになる。この例としては、図5において、ステップS203をNOに分岐させてステップS204の処理を行うことで垂直方向の合成位置を決定する。また、ステップS208の判定においてXnの位置が画面左側と右側の何れに対応しているかに応じて水平方向の合成位置を決定する。例えば、Xnが画面左側の位置に対応している場合には水平方向の合成位置を画面左側に、右側の位置に対応している場合には水平方向の合成位置を画面右側に決定する。 In the example of FIG. 5, the relationship between the designated positions is determined every two images. Therefore, a surplus occurs when the number of designated face images is an odd number. In this case, the synthesis position is determined for one face image. As an example of this, in FIG. 5, step S203 is branched to NO, and the process of step S204 is performed to determine the vertical synthesis position. Further, in the determination in step S208, the horizontal combined position is determined depending on whether the position of Xn corresponds to the left side or the right side of the screen. For example, if Xn corresponds to the position on the left side of the screen, the horizontal composition position is determined on the left side of the screen, and if it corresponds to the right side position, the horizontal composition position is determined on the right side of the screen.
ここで、図3に戻って説明を続ける。ステップS109の指定位置関係判定処理の後、制御部101は、各拡大画像の表示大きさを判定するための拡大率判定処理を行う(ステップS110)。拡大率判定処理について説明する。図7は、拡大率判定処理について示すフローチャートである。拡大率判定処理は、各顔画像中の顔の数から各顔画像の拡大率を決定するための処理である。
Here, returning to FIG. 3, the description will be continued. After the designated positional relationship determination process in step S109, the
図7において、制御部101は、顔画像の数を示すパラメータnに1をセットする(ステップS301)。次に、制御部101は、顔画像Fnに含まれる顔の数Nnを顔検出部103によって検出する(ステップS302)。なお、図3のステップ104の処理において顔の数を仮記録部1013aに記録しておけば、ステップS302においては仮記録部1013aに記録されている顔の数Nnを取得するだけで良い。
In FIG. 7, the
顔の数Nnの取得後、制御部101は、全ての顔画像について顔の数Nnの取得が終了したか否かを判定する(ステップS303)。ステップS303の判定において、全ての顔画像についての顔の数Nnの取得が終了していない場合に、制御部101は、nに1を加える(ステップS304)。その後、処理がステップS302に戻り、制御部101は、次の顔の数の検出を行う。一方、ステップS303の判定において、全ての顔画像についての顔の数Nnの取得が終了した場合に、制御部101は、顔の数N1〜Nnの比で表示部104の画面が分割されるように各顔画像の拡大率を決定する(ステップS305)。その後、制御部101は、図7の処理を終了させて図3の処理に復帰する。
After acquiring the number of faces Nn, the
ステップS305の拡大率の決定手法の一例について説明する。ここでは例えば、図8(a)に示すように、表示部104の画面内の水平方向に沿って配置された顔画像F1と顔画像F2とがユーザによって指定された場合を例に説明する。ここで、表示部104の水平方向の幅(実際には水平方向の画素数)がLであるとする。また、顔画像F1の水平方向の幅長さ(実際には水平方向の画素数)が表示部104の画面内でl1であるとし、顔画像F2の水平方向の幅(実際には水平方向の画素数)が表示部104の画面内でl2であるとする。この場合に、拡大後の顔画像(拡大画像)F1'の水平方向の幅l'と拡大後の顔画像(拡大画像)F2'の水平方向の幅l2'との比でLが内分されるようにする。また、l1'とl2'との比は顔画像F1の顔の数N1(図8(a)の例では2)と顔画像F2の顔の数N2(図8(a)の例では1)との比と等しい。したがって、拡大率E1、E2はそれぞれ以下の(式1)に示すようにして算出できる。
E1=(N1/(N1+N2))×(L/l1)
E2=(N1/(N1+N2))×(L/l2) (式1)なお、顔画像がN個の場合の拡大率Enは以下の(式2)に示すようにして算出できる。
An example of the enlargement ratio determination method in step S305 will be described. Here, for example, as shown in FIG. 8A, a case where the user designates a face image F1 and a face image F2 arranged along the horizontal direction in the screen of the
E1 = (N1 / (N1 + N2)) × (L / l1)
E2 = (N1 / (N1 + N2)) × (L / l2) (Expression 1) Note that the enlargement ratio En for N face images can be calculated as shown in (Expression 2) below.
En=(Nn/(N1+N2+…+Nn))×(L/ln) (式2)ここで、Nnは顔画像Fnの顔の数を示し、lnは顔画像Fnの水平方向の幅(実際には水平方向の画素数)を示している。
En = (Nn / (N1 + N2 +... + Nn)) × (L / ln) (Expression 2) where Nn represents the number of faces of the face image Fn, and ln is the horizontal width of the face image Fn (in practice, The number of pixels in the horizontal direction).
図8(a)に示すようにして、スルー画表示用の画像処理が施された画像から顔画像F1、F2をトリミングし、各トリミングした顔画像のうち、顔画像F1をE1倍に拡大するとともに顔画像F2をE2倍に拡大し、これらの拡大によって得られる拡大画像F1'、F2'を合成してスルー画表示することで、上述したような一部拡大スルー画表示を行うことが可能である。なお、スルー画表示用の画像処理が施された顔画像を拡大する代わりに、図8(b)に示すように、撮像素子102cからの画像信号の読み出しの際に拡大画像F1'、F2'に相当する画像信号を取得して合成動画像を生成するようにしても良い。スルー画表示用の画像処理が施された画像は表示部104の画面大きさに応じた縮小がなされているため、拡大後の顔画像の解像度の向上は望めない。これに対し、撮像素子102cから直接トリミングした画像をスルー画表示に用いることで拡大画像の解像度を高めることが可能である。
As shown in FIG. 8A, face images F1 and F2 are trimmed from an image subjected to image processing for through image display, and among the trimmed face images, face image F1 is enlarged E1 times. At the same time, the face image F2 is enlarged to E2 times, and the enlarged images F1 ′ and F2 ′ obtained by the enlargement are combined and displayed as a through image, so that the partially enlarged through image display as described above can be performed. It is. Instead of enlarging the face image that has been subjected to image processing for through image display, as shown in FIG. 8B, enlarged images F1 ′ and F2 ′ are read when the image signal is read from the
なお、図8(a)は拡大画像F1'と拡大画像F2'との間に隙間を設けないように合成を行う例を示している。これに対し、図2(d)に示すようにして、拡大画像F1'と拡大画像F2'との間に隙間を設けるように合成を行っても良い。この場合には、隙間分を含めて顔画像F1と顔画像F2の拡大率を算出する。 FIG. 8A shows an example in which composition is performed such that no gap is provided between the enlarged image F1 ′ and the enlarged image F2 ′. On the other hand, as shown in FIG. 2D, the composition may be performed so that a gap is provided between the enlarged image F1 ′ and the enlarged image F2 ′. In this case, the enlargement ratio of the face image F1 and the face image F2 including the gap is calculated.
また、図7の例では顔画像Fn中の顔の数を単純に数えて拡大率を決定するようにしている。この場合、例えば図9(a)に示すように顔画像内の水平・垂直の両方向に顔が配置されているような場合では不必要な顔画像の拡大が行われてしまうおそれがある。実際には、図9(b)のように必要な拡大率で拡大を行えたほうが良い。このためには、単純に顔の数に応じて拡大するのではなく、水平方向や垂直方向といった表示部104の画面の一辺に沿った方向に並んだ顔の数に応じて拡大するようにする。
In the example of FIG. 7, the number of faces in the face image Fn is simply counted to determine the enlargement ratio. In this case, for example, as shown in FIG. 9A, when the face is arranged in both the horizontal and vertical directions in the face image, unnecessary enlargement of the face image may be performed. Actually, it is better to enlarge at a necessary enlargement ratio as shown in FIG. For this purpose, it is not simply enlarged according to the number of faces, but is enlarged according to the number of faces arranged in a direction along one side of the screen of the
図10は、拡大率判定処理の変形例について示す図である。図10において、制御部101は、顔画像の数を示すパラメータnに1をセットする(ステップS401)。次に、制御部101は、顔画像Fnに含まれる全ての顔のX座標であるXFn1〜XFnNを顔検出部103によって検出する(ステップS402)。ここで、XFn1〜XFnNは上述の位置Xnではなく、顔画像Fnに含まれる個々の顔のX座標である。なお、図3のステップ104の処理において各顔のX座標を仮記録部1013aに記録しておけば、ステップS402においては仮記録部1013aに記録されている各顔のX座標を取得するだけで良い。
FIG. 10 is a diagram illustrating a modification of the enlargement ratio determination process. In FIG. 10, the
各顔のX座標XFn1〜XFnNの検出後、制御部101は、XFn1〜XFnNの最大と最小値との差ΔXnを算出する(ステップS403)。図11の例では、顔画像F1は顔の数が1つである。したがって、ΔX1は0となる。また、顔画像F2は顔の数が5つである。そして、ΔX2は顔画像F2中で最も右側にある顔F22のX座標と顔画像F2中で最も左側にある顔F21のX座標との差となる。
After detecting the X coordinates XFn1 to XFnN of each face, the
ΔXnの算出後、制御部101は、顔画像Fnに含まれる顔の幅の平均FLnを算出する(ステップS404)。例えば、図11の例において、顔画像F1は顔の数が1つである。したがって、FL1はその1つの顔の幅(水平方向の画素数)となる。一方、顔画像F2は顔の数が5つである。したがって、FL2は5つの顔の幅(水平方向の画素数)の平均となる。なお、図11の例では5つの顔の幅が全て等しい場合を例示している。
After calculating ΔXn, the
FLnの算出後、制御部101は、水平方向に並ぶ顔の数Nnを以下の(式3)に従って算出する(ステップS405)。
Nn=(ΔXn+FLn)/FLn(端数切り上げ) (式3) 例えば、図11の例において、顔画像F1についての顔の数N1は(0+FL1)/FL1=1となる。一方、顔画像F2についての顔の数N2は(2FL2+FL2)/FL2=3となる。
After calculating FLn, the
Nn = (ΔXn + FLn) / FLn (rounded up) (Expression 3) For example, in the example of FIG. 11, the number of faces N1 for the face image F1 is (0 + FL1) / FL1 = 1. On the other hand, the number of faces N2 for the face image F2 is (2FL2 + FL2) / FL2 = 3.
水平方向に並ぶ顔の数Nnを算出した後、制御部101は、全ての顔画像について顔の数Nnの取得が終了したか否かを判定する(ステップS406)。ステップS406の判定において、全ての顔画像についての顔の数Nnの取得が終了していない場合に、制御部101は、nに1を加える(ステップS407)。その後、処理がステップS402に戻り、制御部101は、次の顔の数の検出を行う。一方、ステップS406の判定において、全ての顔画像についての顔の数nの取得が終了した場合に、制御部101は、顔の数N1〜Nnの比で表示部104の画面が分割されるように各顔画像の拡大率を決定する(ステップS408)。なお、図11の例では、水平・垂直とも1:3で内分するように顔画像F1、F2の拡大率を決定した例を示している。拡大率の決定後、制御部101は、図10の処理を終了させて図3の処理に復帰する。
After calculating the number Nn of faces arranged in the horizontal direction, the
図10のような処理に従って拡大率を決定することにより、不必要な拡大が行われる可能性を低減することができる。なお、図10の処理では水平方向に沿った顔の数で拡大率を決定するようにしているが、垂直方向に沿った顔の数で拡大率を決定するようにしても良い。 By determining the enlargement ratio according to the processing as shown in FIG. 10, the possibility of unnecessary enlargement can be reduced. In the process of FIG. 10, the enlargement ratio is determined by the number of faces along the horizontal direction, but the enlargement ratio may be determined by the number of faces along the vertical direction.
ここで、図3に戻って説明を続ける。ステップS110の拡大率判定処理の後、制御部101は、一部拡大スルー画表示を行う(ステップS111)。この一部拡大スルー画表示処理について説明する。図12は、一部拡大スルー画表示処理について示すフローチャートである。一部拡大スルー画表示処理は、各顔画像を拡大した拡大画像と全体画像とを背景画像に合成して得られる合成動画像をスルー画表示するための処理である。
Here, returning to FIG. 3, the description will be continued. After the enlargement rate determination process in step S110, the
図12において、制御部101は、ユーザによって指定された各顔画像をスルー画表示用の画像処理がなされた画像からトリミングする。そして、制御部101は、トリミングした各顔画像を拡大率判定処理で決定された拡大率で拡大した後、拡大によって得られる各拡大画像を、背景画像中の、指定位置関係判定処理で決定された各合成位置に合成する(ステップS501)。次に、制御部101は、各拡大画像を合成した場合に残余する余白部分を検出する(ステップS502)。例えば、図13のようにして拡大画像F1'が画面左上端位置に合成された場合、図13に示す、拡大画像F1'の部分を除く領域が余白部分となる。ただし、余白部分に合成する全体画像は矩形画像である。したがって、余白部分も矩形領域とする必要がある。このため、制御部101は、拡大画像F1'の合成によって残余した部分を複数の矩形領域S1、S2に分割し、それぞれの矩形領域を余白部分として検出する。実際には、拡大画像は複数合成されるので、複数の拡大画像を合成した場合に残余する部分を複数の矩形領域に分割して余白部分を検出する。
In FIG. 12, the
余白部分の検出後、制御部101は、余白部分の面積(画素数)比較を行う(ステップS503)。そして、制御部101は、面積比較の結果、最大の面積を有する余白部分に全体画像を合成する(ステップS504)。例えば、図14(a)のようにして余白部分S1、S2が検出された場合には余白部分S2に全体画像Aを合成する。一方、図14(b)のようにして余白部分S1、S2が検出された場合には余白部分S1に全体画像Aを合成する。なお、全体画像は余白部分に収まる大きさではないので、合成する際には全体画像を縮小する必要がある。この際は、単純に余白部分の大きさに収まるように全体画像の水平方向及び垂直方向を一律の縮小率で縮小すれば良い。また、一部拡大スルー画表示時において表示される全体画像からは、ユーザが指定した顔画像の位置関係が分かれば良い。したがって、全体画像のアスペクト比を変える、即ち水平方向と垂直方向とで縮小率を変更して縮小するようにしても良い。これにより、余白部分の大きさに応じた大きさで全体画像を合成することが可能である。
After detecting the margin part, the
全体画像の合成後、制御部101は、合成動画像をスルー画表示する(ステップS505)。その後、制御部101は、図12の処理を終了させて図3の処理に復帰する。
After synthesizing the entire image, the
ここで、図3に戻って説明を続ける。ステップS111の一部拡大スルー画表示の後、制御部101は、動画像記録を行うか否かを判定する(ステップS112)。このステップS112の判定においては、ユーザの指等が表示部104の画面上に表示されている記録ボタン104hの位置に接触した場合或いは操作部106のレリーズボタンが押された場合に動画像記録を行うと判定する。ステップS112の判定において、動画像記録を行う場合に、制御部101は、一部拡大スルー画表示されている合成動画像を画像処理部1013において動画像圧縮して記録部107に記録させる(ステップS113)。動画像記録の開始後、制御部101は、動画像記録を終了するか否かを判定する(ステップS114)。このステップS114の判定においては、ユーザの指等が表示部104の画面上に表示されている図示しない記録終了ボタンの位置に接触した場合或いは操作部106のレリーズボタンが再び押された場合に動画像記録を終了すると判定する。ステップS114の判定において、動画像記録を終了しない場合には処理がステップS113に戻り、制御部101は動画像記録を継続する。一方、ステップS114の判定において、動画像記録を終了する場合に、制御部101は図3の処理を終了させる。
Here, returning to FIG. 3, the description will be continued. After displaying the partially enlarged through image in step S111, the
また、ステップS112の判定において、動画像記録を行わない場合に、制御部101は、一部拡大スルー画表示を終了するか、即ちユーザの指等が表示部104の画面上に表示されている拡大終了ボタン104gの位置に接触したか否かを判定する(ステップS115)。ステップS115の判定において、一部拡大スルー画表示を終了する場合には、処理がステップS101に戻る。この場合に、制御部101は、通常のスルー画表示を実行する。一方、ステップS115の判定において、一部拡大スルー画表示を終了しない場合に、制御部101は、一部拡大スルー画表示されている画像中の顔画像が選択されたか、即ちユーザの指等が表示部104の画面上に表示されている顔画像の位置に接触したか否かを判定する(ステップS116)。ステップS116の判定において、顔画像が選択されていない場合には処理がステップS111に戻る。この場合に、制御部101は、一部拡大スルー画表示を継続する。
Further, in the determination in step S112, when the moving image recording is not performed, the
また、ステップS116の判定において、顔画像が選択された場合に、制御部101は、ユーザによって選択された顔画像の部分をトリミングし、このトリミングした顔画像を画像処理部1013において画像処理した後、図2(e)のようにして表示部104に全画面表示させる(ステップS117)。この後、制御部101は、動画像記録を行うか否かを判定する(ステップS118)。ステップS118の判定において、動画像記録を行う場合に、制御部101は、全画面スルー画表示されている顔の動画像を画像処理部1013において動画像圧縮して記録部107に記録させる(ステップS119)。動画像記録の開始後、制御部101は、動画像記録を終了するか否かを判定する(ステップS120)。ステップS120の判定において、動画像記録を終了しない場合には処理がステップS119に戻り、制御部101は動画像記録を継続する。一方、ステップS120の判定において、動画像記録を終了する場合に、制御部101は図3の処理を終了させる。
In the determination in step S116, when a face image is selected, the
また、ステップS118の判定において、動画像記録を行わない場合に、制御部101は、戻る操作がなされたか、即ちユーザの指等が表示部104の画面上に表示されている戻るボタン104iの位置に接触したか否かを判定する(ステップS121)。ステップS121の判定において、戻る操作がなされた場合には処理がステップS111に戻る。この場合に、制御部101は一部拡大スルー画表示を行う。一方、ステップS121の判定において、戻る操作がなされていない場合には処理がステップS117に戻る。この場合に、制御部101は顔画像の全面スルー画表示を継続する。
In the determination of step S118, when moving image recording is not performed, the
以上説明したように、本実施形態によれば、全体画像中の顔画像を抽出して拡大した拡大画像と全体画像とを合成した画像をスルー画表示することにより、複数の被写体の表情や反応等を詳細に観察することが可能である。また、顔画像の拡大率を顔画像中の顔の数に応じて変えるようにしているので、顔画像中に複数の顔が含まれていたとしても各顔を詳細に観察することが可能である。さらに、顔画像の拡大率を表示部104の画面の一辺と平行な方向に並ぶ顔の数に従って決定するようにすることで、顔画像が不必要に拡大される可能性を低減させることも可能である。
As described above, according to the present embodiment, by displaying a through image of an image obtained by synthesizing an enlarged image obtained by extracting and enlarging a face image from the entire image and the entire image, expressions and reactions of a plurality of subjects are displayed. Etc. can be observed in detail. In addition, since the enlargement ratio of the face image is changed according to the number of faces in the face image, each face can be observed in detail even if the face image includes a plurality of faces. is there. Furthermore, the possibility that the face image is unnecessarily enlarged can be reduced by determining the enlargement ratio of the face image according to the number of faces arranged in a direction parallel to one side of the screen of the
また、拡大画像の配置を全体画像中の拡大画像の配置に対応させるようにすることで、拡大画像のみでも各顔の位置関係を大まかに把握することができる。また、拡大画像の合成位置を表示部104の画面端位置から順次決定されるようにすることにより、全体画像を合成するための余白部分を確保し易くなる。
In addition, by making the arrangement of the enlarged images correspond to the arrangement of the enlarged images in the entire image, it is possible to roughly grasp the positional relationship between the faces even with the enlarged images alone. Further, by sequentially determining the composition position of the enlarged image from the screen edge position of the
なお、上述した実施形態においては、ユーザがn個の顔画像を指定できるようになっている。しかしながら、指定できる顔画像の数が多くなると、一部拡大スルー画表示によって表示される個々の拡大画像の大きさが小さくなって被写体の表情等の観察が困難になるおそれがある。したがって、指定できる顔画像の数を制限して、拡大画像が必要以上に小さくならないようにしても良い。また、表示部104に一度に表示させる拡大画像の数を制限して、表示部104に表示させる拡大画像を所定時間毎に順次切り替えるようにしても良い。
In the above-described embodiment, the user can designate n face images. However, if the number of face images that can be specified increases, the size of each enlarged image displayed by partially enlarged through image display may be reduced, making it difficult to observe the facial expression of the subject. Therefore, the number of face images that can be specified may be limited so that the enlarged image does not become unnecessarily small. Further, the number of enlarged images displayed on the
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.
100…カメラ、101…制御部、102…撮像部、102a…レンズ、102b…絞り、102c…撮像素子、102d…A/D変換器(ADC)、103…顔検出部、104…表示部、105…位置指定部、106…操作部、107…記録部、108…時計部、1011…トリミング制御部、1012…トリミング画像合成制御部、1013…画像処理部、1013a…仮記録部、1031…視線検知部
DESCRIPTION OF
Claims (11)
上記表示部に表示されている画像中の画像領域に含まれる顔を検出する顔検出部と、
上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成する顔画像生成部と、
上記画像領域に含まれる顔の数に従って上記顔画像生成部で生成された各顔画像の拡大率を決定する拡大率判定部と、
上記表示部の画面大きさに対応した背景画像中に、上記拡大率判定部によって決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成する画像作成部と、
を具備し、
上記拡大した顔画像が選択された場合に、上記拡大した顔画像の記録を行うことを特徴とする画像作成装置。 A display for displaying an image;
A face detection unit for detecting a face included in an image region in the image displayed on the display unit;
A face image generation unit that generates a face image including the face detected by the face detection unit for each image region;
An enlargement rate determination unit that determines an enlargement rate of each face image generated by the face image generation unit according to the number of faces included in the image region;
An image creation unit that creates a composite image in which a face image enlarged according to the enlargement rate determined by the enlargement rate determination unit is synthesized in a background image corresponding to the screen size of the display unit;
Comprising
An image creating apparatus that records the enlarged face image when the enlarged face image is selected.
上記表示部に表示されている画像中の画像領域に含まれる顔を検出する顔検出部と、
上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成する顔画像生成部と、
上記画像領域に含まれる顔の数に従って上記顔画像生成部で生成された各顔画像の拡大率を決定する拡大率判定部と、
上記表示部の画面大きさに対応した背景画像中に、上記拡大率判定部によって決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成する画像作成部と、
を具備し、
記録の指示に従い、上記合成画像の記録を行うことを特徴とする画像作成装置。 A display for displaying an image;
A face detection unit for detecting a face included in an image region in the image displayed on the display unit;
A face image generation unit that generates a face image including the face detected by the face detection unit for each image region;
An enlargement rate determination unit that determines an enlargement rate of each face image generated by the face image generation unit according to the number of faces included in the image region;
An image creation unit that creates a composite image in which a face image enlarged according to the enlargement rate determined by the enlargement rate determination unit is synthesized in a background image corresponding to the screen size of the display unit;
Comprising
An image creating apparatus that records the composite image in accordance with a recording instruction.
上記指定位置関係判定部は、上記表示部の画面端に対応した上記顔画像の合成位置に上記各顔画像の合成位置を決定することを特徴とする請求項3に記載の画像作成装置。 A specified positional relationship determination unit that determines a combined position of each face image generated by the face image generation unit according to the positional relationship of the image region;
The image creation apparatus according to claim 3, wherein the specified positional relationship determination unit determines a synthesis position of each face image at a synthesis position of the face image corresponding to a screen edge of the display unit.
上記顔画像生成部は、上記撮像部で取得された画像から上記顔画像を生成することを特徴とする請求項1乃至8の何れか1項に記載の画像作成装置。 An imaging unit that captures an image of the subject and acquires an image related to the subject;
The image creating apparatus according to claim 1, wherein the face image generation unit generates the face image from an image acquired by the imaging unit.
上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成し、
上記画像領域に含まれる顔の数に従ってトリミング制御部で生成された各顔画像の拡大率を決定し、
上記表示部の画面大きさに対応した背景画像中に、上記決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成し、
上記画像領域が選択された場合に、上記選択された画像の記録を行うことを特徴とする画像作成方法。 The face included in the image area in the image displayed on the display unit is detected by the face detection unit,
Generating a face image including a face detected by the face detection unit for each image region;
Determine the enlargement ratio of each face image generated by the trimming control unit according to the number of faces included in the image area,
In the background image corresponding to the screen size of the display unit, create a composite image that combines the face image enlarged according to the determined enlargement rate,
An image creating method comprising: recording the selected image when the image area is selected.
上記顔検出部によって検出された顔を含む顔画像を上記画像領域毎に生成し、
上記画像領域に含まれる顔の数に従ってトリミング制御部で生成された各顔画像の拡大率を決定し、
上記表示部の画面大きさに対応した背景画像中に、上記決定された拡大率に応じて拡大した顔画像を合成した合成画像を作成し、
記録の指示に従い、上記合成画像の記録を行うことを特徴とする画像作成方法。 The face included in the image area in the image displayed on the display unit is detected by the face detection unit,
Generating a face image including a face detected by the face detection unit for each image region;
Determine the enlargement ratio of each face image generated by the trimming control unit according to the number of faces included in the image area,
In the background image corresponding to the screen size of the display unit, create a composite image that combines the face image enlarged according to the determined enlargement rate,
An image creating method, wherein the composite image is recorded in accordance with a recording instruction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014025772A JP5718502B2 (en) | 2014-02-13 | 2014-02-13 | Image creating apparatus and image creating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014025772A JP5718502B2 (en) | 2014-02-13 | 2014-02-13 | Image creating apparatus and image creating method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009251336A Division JP5479850B2 (en) | 2009-10-30 | 2009-10-30 | Moving image creating apparatus and moving image creating method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014135732A JP2014135732A (en) | 2014-07-24 |
JP5718502B2 true JP5718502B2 (en) | 2015-05-13 |
Family
ID=51413680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014025772A Expired - Fee Related JP5718502B2 (en) | 2014-02-13 | 2014-02-13 | Image creating apparatus and image creating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5718502B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102193567B1 (en) * | 2015-06-17 | 2020-12-22 | 삼성전자주식회사 | Electronic Apparatus displaying a plurality of images and image processing method thereof |
KR20210101087A (en) | 2020-02-07 | 2021-08-18 | 삼성전자주식회사 | An electronic device and method for displaying image at the electronic device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4746295B2 (en) * | 2003-08-25 | 2011-08-10 | 富士フイルム株式会社 | Digital camera and photographing method |
JP4625356B2 (en) * | 2005-03-30 | 2011-02-02 | セイコーエプソン株式会社 | Image trimming with reduced user burden |
JP4794584B2 (en) * | 2007-03-30 | 2011-10-19 | カシオ計算機株式会社 | Imaging device, image display device, and program thereof |
JP2008262416A (en) * | 2007-04-12 | 2008-10-30 | Olympus Imaging Corp | Image reproduction device, image reproduction program, recording medium and image reproduction method |
-
2014
- 2014-02-13 JP JP2014025772A patent/JP5718502B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014135732A (en) | 2014-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9578260B2 (en) | Digital photographing apparatus and method of controlling the digital photographing apparatus | |
JP5036599B2 (en) | Imaging device | |
US9025044B2 (en) | Imaging device, display method, and computer-readable recording medium | |
JP2011130382A (en) | Image-capturing apparatus and control method therefor | |
JP2011147109A (en) | Image capturing apparatus and image processing apparatus | |
CN108605087B (en) | Terminal photographing method and device and terminal | |
JP2010093422A (en) | Imaging apparatus | |
JP2014232181A (en) | Imaging device and control method thereof | |
JP2009267787A (en) | Composition determination device, composition determination method, and program | |
JP2005128156A (en) | Focusing device and method | |
JP2011023814A (en) | Imaging apparatus | |
JP5479850B2 (en) | Moving image creating apparatus and moving image creating method | |
JP2008281385A (en) | Image processing device | |
JP6116436B2 (en) | Image processing apparatus and image processing method | |
JP2009288945A (en) | Image display unit and image display method | |
JP2013247543A (en) | Imaging device, display device, image processing method and program | |
JP5718502B2 (en) | Image creating apparatus and image creating method | |
JP2017143354A (en) | Image processing apparatus and image processing method | |
JP6104066B2 (en) | Image processing apparatus and image processing method | |
JP5509986B2 (en) | Image processing apparatus, image processing system, and image processing program | |
JP6213470B2 (en) | Image processing apparatus, imaging apparatus, and program | |
KR101700360B1 (en) | Digital photographing apparatus, method for controlling the apparatus, and medium for recording the method | |
JP2008282077A (en) | Image pickup device and image processing method, and program therefor | |
JP2014236244A (en) | Image processing system, image processing program, and digital camera | |
JP2015118274A (en) | Imaging device, imaging device control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150318 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5718502 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |