JP2011039784A - Device and method for controlling display - Google Patents

Device and method for controlling display Download PDF

Info

Publication number
JP2011039784A
JP2011039784A JP2009186639A JP2009186639A JP2011039784A JP 2011039784 A JP2011039784 A JP 2011039784A JP 2009186639 A JP2009186639 A JP 2009186639A JP 2009186639 A JP2009186639 A JP 2009186639A JP 2011039784 A JP2011039784 A JP 2011039784A
Authority
JP
Japan
Prior art keywords
area
image
cutout
determination
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009186639A
Other languages
Japanese (ja)
Other versions
JP5300649B2 (en
JP2011039784A5 (en
Inventor
Yosuke Takagi
陽介 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009186639A priority Critical patent/JP5300649B2/en
Publication of JP2011039784A publication Critical patent/JP2011039784A/en
Publication of JP2011039784A5 publication Critical patent/JP2011039784A5/en
Application granted granted Critical
Publication of JP5300649B2 publication Critical patent/JP5300649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a part of a face in an image from being cut off and displayed during the execution of slide show. <P>SOLUTION: A display control device includes a control means for controlling side show so that when executing the slide show for automatically and successively reproducing images, a segmentation determining area in an image is decided, whether the segmentation determining area may be included in a preset first condition is determined, and when the area is included, the segmentation determination area may be decided in the first condition, but when the area is not included, image segmentation processing may be performed according to a second condition or a third condition to prevent good appearance from being lost due to lack of an object and distortion of a segmented shape during the execution of the slide show. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は表示制御装置及び表示制御方法に関する。   The present invention relates to a display control device and a display control method.

近年、デジタルカメラなどの小型電子機器にも顔検出機能が搭載され、撮影時に顔を検出してピントを合わせることなどに利用されている。また、撮影した画像を再生する再生モード時に、顔検出機能を有効に用いる機能として、画像を順次に自動再生するスライドショーが挙げられる。   In recent years, a small electronic device such as a digital camera is also equipped with a face detection function, which is used to detect a face and focus when shooting. In addition, as a function for effectively using the face detection function in a playback mode for playing back captured images, there is a slide show in which images are automatically played back sequentially.

具体的には、スライドショー実行時に、表示する画像の中に顔が検出されればその顔をクローズアップして画面上に表示するといった利用が考えられる。その際に、画像に対する顔の位置や大きさによって、顔が中央に表示されなかったり、顔の一部が見切れてしまったりすることがあった。   Specifically, when a slide show is executed, if a face is detected in an image to be displayed, the face may be used as a close-up and displayed on the screen. At that time, depending on the position and size of the face relative to the image, the face may not be displayed in the center or a part of the face may be cut off.

特に、顔周辺を切り出して表示する場合、顔が端にある場合は、切り出す形状が欠けてしまうことがあり、切り出す形状が左右対称にならなかったり、いびつな形となってしまったりして、見た目上好ましくない。そこで、切り出す形状が欠けてしまうような場合には、切り出し領域を内側に寄せることで、切り出し形状が欠けないようにしていたが、その結果、顔の一部が欠けて切り出されてしまうことがあった。   In particular, when the face periphery is cut out and displayed, if the face is at the edge, the cut out shape may be missing, the cut out shape may not be symmetrical or distorted, It is not preferable in appearance. Therefore, in the case where the cutout shape is chipped, the cutout area is moved inward so that the cutout shape is not chipped. As a result, a part of the face may be cut out and cut out. there were.

このような問題点を解消する技術として、例えば特許文献1では、画像の任意の点を中心に拡大して表示する場合に、その拡大した領域が表示領域の外に含まれないようにするために、表示領域の内側に寄せるように補正することを提案している。   As a technique for solving such a problem, for example, in Patent Document 1, when an enlarged image is displayed around an arbitrary point of an image, the enlarged region is not included outside the display region. In addition, it is proposed that correction is made so as to be closer to the inside of the display area.

特許第2557720号公報Japanese Patent No. 2557720

しかしながら、前述した特許文献1に記載されているされている画像表示装置では、表示領域の内側に寄せるように補正したことによって顔の一部が切れてしまい、画像の中の顔を美しく表示できない事態が発生する問題点があった。
本発明は前述の問題点に鑑み、スライドショー実行時に画像の中の顔の一部が切れて表示されてしまうのを防止できるようにすることを目的とする。
However, in the image display device described in Patent Document 1 described above, a part of the face is cut off due to correction so as to be brought closer to the inside of the display area, and the face in the image cannot be displayed beautifully. There was a problem that happened.
In view of the above-described problems, an object of the present invention is to prevent a part of a face in an image from being cut and displayed when a slide show is executed.

本発明の表示制御装置は、画像を順次に自動再生するスライドショーを実行する時に、画像内において切り出し判定用領域を決定し、前記切り出し判定用領域が予め設定された第1の条件に収まっているか否かを判断し、収まっている場合には前記第1の条件で切り出し判定用領域を決定し、収まっていない場合には、第2の条件または第3の条件に従って画像切り出し処理を行うよう制御する制御手段を有することを特徴とする。   The display control apparatus according to the present invention determines a cutout determination area in an image when executing a slide show for automatically reproducing images sequentially, and whether the cutout determination area falls within a preset first condition. If it does not fit, the cutout determination area is determined under the first condition, and if it does not fit, the image cutout process is controlled according to the second condition or the third condition. It has the control means to do.

本発明によれば、被写体を基準として画像の一部を切り出して順次に自動再生するスライドショーを実行する時に、被写体が欠けてしまったり、切り出し形状がいびつになったりして、見栄えの良さを損なってしまうのを防ぐことがでる。   According to the present invention, when a slide show is performed in which a part of an image is cut out based on the subject and automatically reproduced in sequence, the subject is missing or the cutout shape becomes distorted, which deteriorates the appearance. Can be prevented.

本実施形態の表示制御装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display control apparatus of this embodiment. 第1の実施形態に係る表示制御装置の処理を示すフローチャートである。It is a flowchart which shows the process of the display control apparatus which concerns on 1st Embodiment. 第1の実施形態に係る画像切り出し処理を示すフローチャートである。It is a flowchart which shows the image cut-out process which concerns on 1st Embodiment. 第1の実施形態に係る画像と切り出し領域とを説明する図である。It is a figure explaining the image and cutout area which concern on 1st Embodiment. 第2の実施形態に係る表示制御装置の処理を示すフローチャートである。It is a flowchart which shows the process of the display control apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る画像切り出し処理を示すフローチャートである。It is a flowchart which shows the image cut-out process which concerns on 2nd Embodiment.

以下、図面を参照しながら本発明による表示制御装置、表示制御方法の実施形態について説明する。以下に説明する実施形態においては、この発明による装置、方法をパーソナルコンピュータ(以下PC)に適用した場合を例にして説明する。
図1は、本発明の実施形態の構成を示す図である。図1は、本発明が実施されうる表示制御装置の一例としてのPC100の構成例を示している。
Hereinafter, embodiments of a display control device and a display control method according to the present invention will be described with reference to the drawings. In the embodiments described below, a case where the apparatus and method according to the present invention are applied to a personal computer (hereinafter referred to as a PC) will be described as an example.
FIG. 1 is a diagram showing a configuration of an embodiment of the present invention. FIG. 1 shows a configuration example of a PC 100 as an example of a display control apparatus in which the present invention can be implemented.

図1に示すように、内部バス111で接続されたCPU(中央演算装置)101、ハードディスク(HD)102、メモリ103、ディスプレイ104、入力部105、記録媒体ドライブ106、ネットワークインターフェイス(I/F)107などを備えている。   As shown in FIG. 1, a CPU (Central Processing Unit) 101, a hard disk (HD) 102, a memory 103, a display 104, an input unit 105, a recording medium drive 106, a network interface (I / F) connected by an internal bus 111. 107 and the like.

CPU101は、表示制御装置の動作を制御する演算処理装置であり、入力部105等を介してユーザからの指示を受け付けて、後述する各種プログラムを実行し、ディスプレイ104の表示制御を行う。HD102には画像や、CPU101の動作処理手順(例えばコンピュータの立ち上げ処理や基本入出力処理、後述する本発明の各処理等のプログラム)が記録されている。メモリ103はCPU101のワークエリアとして使用される。   The CPU 101 is an arithmetic processing device that controls the operation of the display control device, receives instructions from the user via the input unit 105 and the like, executes various programs described later, and performs display control of the display 104. The HD 102 stores images and operation processing procedures of the CPU 101 (for example, a program such as computer startup processing, basic input / output processing, and each processing of the present invention described later). The memory 103 is used as a work area for the CPU 101.

ディスプレイ104は、本実施形態におけるグラフィックユーザインターフェースを表示するための表示部であり、この表示部上に後述するサムネイル画像が表示される。入力部105は、ユーザからの指示を受け付けるための入力部であり、キーボードやポインティングデバイスとしてのマウス、タッチパネル等の入力デバイスである。ユーザは入力部105を使用することで、画像再生プログラムを実行できるような構成となっている。記録媒体ドライブ106は、CD−ROMやDVD−ROM、フラッシュメモリ等からなる外部記録媒体108に格納されているデータの読み出しや、外部記録媒体108にデータの書き込みを行う装置である。   The display 104 is a display unit for displaying the graphic user interface in the present embodiment, and a thumbnail image to be described later is displayed on the display unit. The input unit 105 is an input unit for receiving an instruction from the user, and is an input device such as a keyboard, a mouse as a pointing device, or a touch panel. By using the input unit 105, the user can execute the image reproduction program. The recording medium drive 106 is a device that reads data stored in an external recording medium 108 such as a CD-ROM, DVD-ROM, or flash memory, and writes data to the external recording medium 108.

CPU101は、読み出した画像中に顔が含まれているか否かを調べる顔検出処理を行う。以下に、顔検出機能について説明する。
CPU101は、顔検出対象の画像データを画像処理部20に送る。画像処理部20は、CPU101の制御下で当該画像データに水平方向のバンドパスフィルタを作用させる。また、CPU101の制御下で画像処理部20は処理された画像データに垂直方向のバンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。
The CPU 101 performs face detection processing for checking whether or not a face is included in the read image. The face detection function will be described below.
The CPU 101 sends image data to be detected to the face to the image processing unit 20. The image processing unit 20 applies a horizontal band-pass filter to the image data under the control of the CPU 101. Further, under the control of the CPU 101, the image processing unit 20 applies a vertical band-pass filter to the processed image data. By these horizontal and vertical band pass filters, edge components are detected from the image data.

その後、CPU101は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、CPU101は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。CPU101は、顔の検出結果に応じて顔情報を出力し、処理を終了する。このとき、顔の数などの特徴量をメモリ103に記憶する。   After that, the CPU 101 performs pattern matching on the detected edge component, and extracts a candidate group of eyes, nose, mouth, and ears. Then, from the extracted eye candidate group, those satisfying a preset condition (for example, distance between two eyes, inclination, etc.) are determined as eye pairs, and only eyes having eye pairs are identified. Narrow down as a candidate group. Then, the CPU 101 associates the narrowed eye candidate group with other parts (nose, mouth, ears) that form the corresponding face, and passes the preset non-face condition filter so that the face is identified. To detect. The CPU 101 outputs face information according to the face detection result, and ends the process. At this time, feature quantities such as the number of faces are stored in the memory 103.

以上のように再生表示される画像データを画像解析して、画像データの特徴量を抽出することにより被写体情報を検出することが可能である。本実施形態では、被写体情報として顔情報を例に挙げたが、被写体情報には他にも赤目判定や目の検出、目つむり検出、笑顔検出等の様々な情報がある。前述した画像解析は、画像処理部20を用いて行ったが、専用のハードウェアがなくとも、プログラムに従って同様の処理を行うことも可能である。   As described above, it is possible to detect subject information by analyzing the image data reproduced and displayed and extracting the feature amount of the image data. In this embodiment, face information is taken as an example of subject information. However, subject information includes various information such as red-eye determination, eye detection, eye-brow detection, and smile detection. The image analysis described above is performed using the image processing unit 20, but similar processing can be performed according to a program without using dedicated hardware.

(第1の実施形態)
本実施形態の動作について、図2、図3のフローチャートを参照しながら説明する。
図2は、記録媒体ドライブ106を介して、外部記録媒体108に記録されている画像をディスプレイ104に、画像を順次に自動再生するスライドショー実行時に行われる処理を説明するフローチャートである。まず、スライドショー機能が実行されると、S201にて最初に表示する初期表示画像の設定を行う。
(First embodiment)
The operation of the present embodiment will be described with reference to the flowcharts of FIGS.
FIG. 2 is a flowchart for explaining processing performed at the time of executing a slide show in which images recorded on the external recording medium 108 are automatically reproduced in sequence on the display 104 via the recording medium drive 106. First, when the slide show function is executed, an initial display image to be displayed first is set in S201.

例えば、外部記録媒体108に記録されている画像のうち、一番古いものを最初に表示する初期表示画像として設定したり、スライドショー機能実行前に閲覧していた画像を設定したりする。次に、S202では、S201で設定された初期表示画像を記録媒体ドライブ106からメモリ103に読み込みを行う。次に、S203では、S202で読み込まれた画像に対して、ディスプレイ104に表示する領域を切り出す画像切り出し処理を実行する。   For example, the oldest image recorded in the external recording medium 108 is set as an initial display image to be displayed first, or an image that has been viewed before the slide show function is set. Next, in S202, the initial display image set in S201 is read from the recording medium drive 106 into the memory 103. Next, in S203, an image cutout process for cutting out an area to be displayed on the display 104 is executed on the image read in S202.

次に、S204では、S203で切り出された領域をディスプレイ104に表示する。次に、S205では、S204にて表示した画像がスライドショーで再生する最後の画像であるかの判定を行う。この判定においては、予め設定された画像の切替間隔が経過するか、入力部105を介してユーザからの次の画像への切り替え指示の受け付けの有無に基いて行う。S205の判定の結果、最後の画像でない場合はS206へ進み、最後の画像である場合はS207へ進んでスライドショーを終了する。S206では、次に表示する画像を表示画像として設定する。その後、S202に戻り、画像の読み込み、表示を繰り返す。   Next, in S204, the area cut out in S203 is displayed on the display 104. Next, in S205, it is determined whether the image displayed in S204 is the last image to be reproduced in the slide show. This determination is performed based on whether a preset image switching interval elapses or whether an instruction to switch to the next image is received from the user via the input unit 105. As a result of the determination in S205, if it is not the last image, the process proceeds to S206, and if it is the last image, the process proceeds to S207 to end the slide show. In S206, an image to be displayed next is set as a display image. Thereafter, the process returns to S202, and image reading and display are repeated.

ここで、前述したS203で実行する画像切り出し処理について詳しく述べる。
図3は、画像切り出し処理の動作を説明するフローチャートである。S301では、S202にてメモリ103に読み込まれた画像データに対して、読み込んだ画像内に特定の被写体の有無、切り出し判定用領域と特定の被写体の位置とを比較して、特定の被写体の位置を検出する被写体検出を行う。具体的には、顔検出処理を実行して画像内に顔が存在するかどうかを判定する。この判定の結果、顔が存在する場合はS302へと進み、顔が存在しない場合はS312へと進む。S302では、S301で検出された顔が複数存在するか否かを判別する。この判別の結果、顔が複数存在する場合はS303へと進み、複数存在しない場合はS304へと進む。
Here, the image cutout process executed in S203 described above will be described in detail.
FIG. 3 is a flowchart for explaining the operation of the image cut-out process. In S301, with respect to the image data read into the memory 103 in S202, the presence / absence of a specific subject in the read image, the segmentation determination area and the position of the specific subject are compared, and the position of the specific subject is determined. Subject detection is performed. Specifically, the face detection process is executed to determine whether a face exists in the image. As a result of this determination, if a face exists, the process proceeds to S302, and if no face exists, the process proceeds to S312. In S302, it is determined whether or not there are a plurality of faces detected in S301. As a result of the determination, if there are a plurality of faces, the process proceeds to S303, and if there are not a plurality of faces, the process proceeds to S304.

S303では、画像内に存在する複数の顔に対して優先度を設定する。その後、S304へと進む。S304では、S303で設定された優先度に従って切り出しの基準とする切り出し対象の顔を設定する。次に、S305では、切り出し領域を算出する。例えば、検出された顔の大きさで画像を切り出した場合、顔部分しか見えない画像になってしまい実際にはどのような画像だったかわからなくなってしまう不都合が発生することがある。そのため、検出された顔の領域の一定数倍の領域を切り出し領域として領域決定することで、顔周辺の情報も見ることができどのような画像なのかが分かりやすくなる。   In S303, priorities are set for a plurality of faces existing in the image. Thereafter, the process proceeds to S304. In S304, a face to be cut out is set as a cutout reference according to the priority set in S303. Next, in S305, a cutout area is calculated. For example, when an image is cut out with the size of the detected face, there is a case in which only the face portion is seen and the actual image is not known. Therefore, by determining an area that is a fixed multiple of the detected face area as a cut-out area, information about the face periphery can be seen, and it is easy to understand what kind of image it is.

図4(a)において、枠401が検出された顔の領域を示し、枠402は枠401に一定数を掛けた大きさの領域を示している。S305で算出される領域はこの枠402となる。また、枠403はS202で読み込まれた画像全体の範囲(画像自体の領域)を示している。次に、S306では、S305で算出した切り出し領域が画像自体の領域からはみ出してしまうかを判定する。この判定の結果、はみ出してしまうのであればS307に進み、はみ出さないのであれば切り出し領域を決定してS313へと進む。   In FIG. 4A, a frame 401 indicates a detected face area, and a frame 402 indicates an area having a size obtained by multiplying the frame 401 by a certain number. The area calculated in S305 is this frame 402. A frame 403 indicates a range of the entire image read in S202 (an area of the image itself). Next, in S306, it is determined whether or not the cutout area calculated in S305 protrudes from the area of the image itself. If the result of this determination is that it is protruding, the process proceeds to S307, and if it is not protruding, the cutout area is determined and the process proceeds to S313.

S307では、S305で行った切り出し領域の算出により、はみ出してしまった切り出し領域を補正する。例えば、図4(b)のように、顔が画像の端などにある場合の枠402のように、S305で算出した切り出し領域が画像の領域をはみ出してしまう。このような場合には、枠404のように切り出し領域を画像の内側に移動させる領域補正を行う。ここで、補正の方法として切り出し領域を縮小して画像の領域に収まるように補正する方法もあるが、顔周辺の情報も見ることができるように切り出し領域を決定するには、画像内側に移動させる領域補正方法が有用である。   In S307, the cutout area that has protruded is corrected by the calculation of the cutout area performed in S305. For example, as shown in FIG. 4B, the cutout area calculated in S305 protrudes from the image area, like a frame 402 when the face is at the edge of the image. In such a case, region correction is performed to move the cutout region to the inside of the image as in the frame 404. Here, as a correction method, there is a method of reducing the cutout area so that it fits in the image area, but to determine the cutout area so that information around the face can be seen, move to the inside of the image. An area correction method is useful.

次に、S308では、顔がS307で補正した切り出し領域からはみ出すかどうかを判定し、はみ出すようであればS309へ進み、はみ出さないようであれば切り出し領域を決定してS313へ進む。例えば、図4(c)のように、切り出す形状が円形だった場合、顔の一部が切り出し領域である枠405からはみ出してしまい、表示の際には顔が一部欠けてしまう。そのような場合には、S309にて次の優先度の顔があるかを判別する。この判別の結果、あるようであればS310へ進み、なければS311へと進む。なお、図4(c)の枠405は、検出された顔の領域に一定数を掛けた大きさの切り出し判定用領域が、画像自体の領域をはみ出していたために、画像自体の領域内に補正した枠404(図4(b)の枠404と同じもの)に内接する円である。   Next, in S308, it is determined whether or not the face protrudes from the cutout area corrected in S307. If the face protrudes, the process proceeds to S309. If the face does not protrude, the cutout area is determined and the process proceeds to S313. For example, as shown in FIG. 4C, when the shape to be cut out is a circle, a part of the face protrudes from the frame 405 that is a cut-out area, and a part of the face is missing at the time of display. In such a case, it is determined whether there is a face with the next priority in S309. As a result of the determination, if it exists, the process proceeds to S310, and if not, the process proceeds to S311. Note that the frame 405 in FIG. 4C is corrected within the region of the image itself because the cut-out determination region having a size multiplied by a certain number of the detected face region protrudes from the region of the image itself. The circle is inscribed in the frame 404 (the same as the frame 404 in FIG. 4B).

S310では、次の優先度の顔を切り出し対象の顔として設定し、その後、S305からの処理を繰り返すことで、顔の一部が切れてしまった状態での表示を回避することができる。また、S309の判別の結果、次の優先度の顔がなかった場合には、S311にて画像の中央部分を切り出し領域として決定することで、顔の一部が切れてしまった状態での表示を回避する。そもそも、画像に顔が含まれていないような場合には、S301にて顔の検出がなかったと判別され、S312に進み、画像の中央部分を切り出し領域として決定される。   In S310, the face with the next priority is set as the face to be cut out, and then the processing from S305 is repeated, so that display in a state where a part of the face is cut can be avoided. If there is no face of the next priority as a result of the determination in S309, the central part of the image is determined as a cutout area in S311 so that a part of the face is cut off. To avoid. In the first place, when no face is included in the image, it is determined in S301 that no face has been detected, and the process proceeds to S312 and the central portion of the image is determined as a cutout region.

S311またはS312の処理の後はS313に進む。S313では、S311またはS312の処理により、決定された切り出し領域で実際に画像の切り出し処理を行う。その後、S314へ進み画像切り出し処理を完了させて、図2のS204において切り出された領域を表示する。   After the process of S311 or S312, the process proceeds to S313. In S313, an image is actually cut out in the cutout area determined by the process in S311 or S312. Thereafter, the process proceeds to S314 to complete the image cutout process, and the area cut out in S204 of FIG. 2 is displayed.

ここで、S308にて顔が切り出し領域からはみ出すかどうかを判別する際に、図4(c)のように、切り出す形状が円形の場合は、以下のような判別基準を設けてもよい。すなわち、図4(d)のように、S307で補正された切り出し判定用領域の枠404に一定の割合を掛け合わせた領域を切り出し有効判定領域406とする。そして、検出された顔の中心点407が切り出し有効判定領域406の中に入っているか否かで、顔が切り出し領域からはみ出すかどうかを判別する。図4(c)の例では、検出された顔の中心点407が切り出し有効判定領域406の中に入っているので、切り出し判定用領域の枠404は有効となり、切り出し判定用領域の枠404に内接する円が切り出される。逆に、検出された顔の中心点407が切り出し有効判定領域406の中に入っていなければ、S309の次の優先度の顔があるか否かの判定処理に進むことになる。   Here, when determining whether or not the face protrudes from the cutout region in S308, if the cutout shape is circular as shown in FIG. 4C, the following determination criteria may be provided. That is, as shown in FIG. 4D, an area obtained by multiplying a frame 404 of the cutout determination area corrected in S307 by a certain ratio is set as a cutout valid determination area 406. Whether or not the face protrudes from the cutout area is determined based on whether or not the detected center point 407 of the face is in the cutout validity determination area 406. In the example of FIG. 4C, since the detected face center point 407 is included in the cutout validity determination area 406, the frame 404 for the cutout determination area is valid, and the frame 404 for the cutout determination area is displayed. An inscribed circle is cut out. On the other hand, if the detected center point 407 of the face is not within the cutout valid determination area 406, the process proceeds to S309 to determine whether there is a face with the next priority.

なお、切り出す領域の基準として顔と限定せず、その他の被写体を基準にしてもよい。また、切り出す領域の基準は、顔検出処理を行って検出した顔としたが、予め画像の属性情報として顔情報が記録されていればその情報を切り出す領域の基準として、顔検出処理は行わなくともよい。   Note that the area to be cut out is not limited to a face, and other subjects may be used as a reference. In addition, the reference of the area to be cut out is a face detected by performing face detection processing. However, if face information is recorded in advance as image attribute information, face detection processing is not performed as the reference of the area to be cut out. Also good.

(第2の実施形態)
第1の実施形態のケースでは、画像に顔が検出されれば顔を基準にして切り出し領域を決定しているため、撮影時に顔以外のものに意図してピントを合わせたとしても、顔が映りこんでいたために顔の周辺が切り出されて表示されてしまう不都合が発生する。本実施形態においては、このような不都合が発生しないようにするために、図5に示すように、図2のフローチャートの一部に以下に説明するような処理を加えたものである。
(Second Embodiment)
In the case of the first embodiment, if a face is detected in the image, the cutout area is determined based on the face. Therefore, even if the focus is intentionally set to something other than the face at the time of shooting, the face is Since it was reflected, the inconvenience that the periphery of the face is cut out and displayed occurs. In the present embodiment, in order to prevent such an inconvenience, processing as described below is added to a part of the flowchart of FIG. 2 as shown in FIG.

S201において最初に表示する初期表示画像の設定が行われたら、次に、S501にて表示画像の読み込みをした後、S502にて読み込まれた画像が撮影時に検出された顔にピントを合わせる顔AF機能で撮影されたかどうかを判別する。この判別の結果、顔AF機能で撮影された画像であればS503へ進み、そうでなければS504へ進む。S503では、S505での切り出し処理において基準とする基準枠を顔に設定する。S504では、基準枠をAF枠(フォーカス枠)に設定する。これらの設定を完了したら、その後、S505へと進んで画像切り出し処理を実行する。   If the initial display image to be displayed first is set in step S201, then the face image AF, in which the display image is read in step S501, and the image read in step S502 is focused on the face detected at the time of shooting. Determine if the function was taken. If the result of this determination is that the image was shot with the face AF function, the process proceeds to S503, otherwise the process proceeds to S504. In step S503, the reference frame used as a reference in the cutout process in step S505 is set as a face. In S504, the reference frame is set to the AF frame (focus frame). When these settings are completed, the process proceeds to S505 to execute image cutout processing.

ここでの画像切り出し処理は、図6に示すフローチャートのS601〜S614のようになる。すなわち、図3のフローチャートを参照しながら説明した画像切り出し処理においては、顔を基準に切り出し領域を決定していたのを、S503、S504で設定された基準枠を基準として切り出し領域を決定する。このように処理することで、撮影時に顔以外にピントを合わせるように撮影したような画像のスライドショーを行う場合に、意図することなく移りこんだ顔を基準にして切り出されてしまうことを防ぐことができる。   The image cutout process here is as shown in S601 to S614 of the flowchart shown in FIG. That is, in the image cutout process described with reference to the flowchart of FIG. 3, the cutout area is determined based on the reference frame set in S503 and S504, which is determined based on the face. By processing in this way, when performing a slideshow of images that are shot to focus on other than the face at the time of shooting, it is prevented from being cut out based on the unintentionally moved face Can do.

前述した実施形態に係らず、種々の条件に従って制御することができる。例えば、第1の条件としては、画像内の顔を基準にした領域を切り出して表示する際に、顔の一部が切れていないことである。第2の条件は、別の被写体に基いて切り出し判定用領域を決定することまたは画像の中央を基準として切り出し判定用領域を決定することである。第3の条件はピントの合わせ状態を検出するためのフォーカス枠を基準として切り出し判定用領域を決定すること、などを考慮することができる。   Regardless of the embodiment described above, control can be performed according to various conditions. For example, the first condition is that a part of the face is not cut when an area based on the face in the image is cut out and displayed. The second condition is to determine the cutout determination area based on another subject or to determine the cutout determination area based on the center of the image. As the third condition, it can be considered to determine the cutout determination area with reference to the focus frame for detecting the focus state.

なお、CPU101の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、前述した各実施形態においては、本発明がパーソナルコンピュータに適用した場合を例にして説明したが、これはこの例に限定されない。すなわち、本発明は、デジタルカメラなどの撮像装置に適用してもよい。すなわち、メモリカードなどの、デジタルカメラが読み取り可能な記憶媒体に記憶された撮影画像を、デジタルカメラの有する背面液晶装置などのディスプレイにマルチ再生表示する際にも、本発明は適用可能である。さらに、携帯電話端末や携帯型の画像ビューワ、プリンタ装置に設けられた印刷画像選択および確認のためのディスプレイ、デジタルフォトフレームなど、画像を表示可能な装置であれば、本発明は適用可能である。
The control of the CPU 101 may be performed by a single piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing.
In each of the above-described embodiments, the case where the present invention is applied to a personal computer has been described as an example. However, this is not limited to this example. That is, the present invention may be applied to an imaging apparatus such as a digital camera. That is, the present invention is also applicable when a captured image stored in a storage medium such as a memory card that can be read by a digital camera is displayed on a display such as a rear liquid crystal device of the digital camera. Furthermore, the present invention is applicable to any device capable of displaying an image, such as a mobile phone terminal, a portable image viewer, a display for selecting and confirming a print image provided in a printer device, and a digital photo frame. .

また、前述した各実施形態の各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に提供してもよい。そして、そのシステムあるいは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、不揮発性の半導体メモリ、磁気テープなどを用いることができる。
In addition, a storage medium in which a program code of software that embodies each function of each of the above-described embodiments may be provided to the system or apparatus. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium.
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a nonvolatile semiconductor memory, a magnetic tape, or the like can be used.

また、本発明は、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施形態の機能が実現されるのに限られない。例えば、当該プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施例の機能が実現される場合も含むことができる。   Further, the present invention is not limited to realizing the functions of the above-described embodiments by executing program code read by a computer. For example, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Can also be included.

さらに、コンピュータ読み取り可能な記憶媒体から読み出されたプログラムコードがコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むことができる。
また、前述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
Furthermore, the program code read from the computer-readable storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Can also be included.
Moreover, each embodiment mentioned above only shows one Embodiment of this invention, It is also possible to combine each embodiment suitably.

Claims (11)

画像を順次に自動再生するスライドショーを実行する時に、画像内において切り出し判定用領域を決定し、前記切り出し判定用領域が予め設定された第1の条件に収まっているか否かを判断し、収まっている場合には前記第1の条件で切り出し判定用領域を決定し、収まっていない場合には、第2の条件または第3の条件に従って画像切り出し処理を行うよう制御する制御手段を有することを特徴とする表示制御装置。   When executing a slide show that automatically reproduces images sequentially, a cutout determination area is determined in the image, and it is determined whether or not the cutout determination area falls within a preset first condition. A control unit that controls the cutout determination area to be determined according to the first condition if the cutout area is determined; and to perform the image cutout process according to the second condition or the third condition if the cutout area does not fall within the first condition. A display control device. 前記第1の条件は、画像内の顔を基準にした領域を切り出して表示する際に、顔の一部が切れていないことであり、前記第2の条件は、別の被写体に基いて切り出し判定用領域を決定することまたは画像の中央を基準として切り出し判定用領域を決定することであり、前記第3の条件はピントの合わせ状態を検出するためのフォーカス枠を基準として切り出し判定用領域を決定することであることを特徴とする請求項1に記載の表示制御装置。   The first condition is that a part of the face is not cut out when the region based on the face in the image is cut out and displayed, and the second condition is cut out based on another subject. Determining a determination region or determining a cut-out determination region based on the center of the image, and the third condition is that the cut-out determination region is determined based on a focus frame for detecting a focus state. The display control device according to claim 1, wherein the display control device is determined. 画像を読み込む読み込み手段と、
前記読み込み手段により読み込んだ画像内に特定の被写体の有無、特定の被写体の位置を検出する被写体検出手段と、
前記被写体検出手段により検出された画像内の特定の被写体に基づいて切り出し判定用領域を決定する領域決定手段と、
前記領域決定手段により決定された切り出し判定用領域が画像内に収まっていない場合に、画像内に収まるように補正する領域補正手段と、
前記領域補正手段により補正された切り出し判定用領域と特定の被写体の位置とを比較し、その比較の結果に基づいて前記補正された切り出し判定用領域を切り出し領域とするかどうかを決定する制御手段とを有することを特徴とする表示制御装置。
Reading means to read the image,
Subject detection means for detecting the presence or absence of a specific subject in the image read by the reading means and the position of the specific subject;
Area determining means for determining a cutout determination area based on a specific subject in the image detected by the subject detecting means;
An area correction unit that corrects the cut-out determination area determined by the area determination unit to be included in the image when the area is not included in the image;
Control means for comparing the cutout determination area corrected by the area correction means with the position of a specific subject and determining whether or not the corrected cutout determination area is set as a cutout area based on the comparison result And a display control device.
前記領域決定手段は、前記補正された切り出し判定用領域と前記特定の被写体の位置とを比較し、その結果、別の被写体に基いて切り出し判定用領域を決定することを特徴とする請求項3に記載の表示制御装置。   4. The area determination unit compares the corrected cutout determination area with the position of the specific subject, and as a result, determines the cutout determination area based on another subject. The display control apparatus according to 1. 前記領域決定手段は、前記補正された切り出し判定用領域と前記特定の被写体の位置とを比較し、その結果、画像の中央を基準として切り出し判定用領域を決定することを特徴とする請求項3に記載の表示制御装置。   The area determination unit compares the corrected cutout determination area with the position of the specific subject, and as a result, determines the cutout determination area based on the center of the image. The display control apparatus according to 1. 前記領域決定手段は、属性情報に含まれる撮影時の設定が特定の条件を満たせば、前記被写体検出手段の処理を実行せずに、ピントの合わせ状態を検出するためのフォーカス枠を基準として切り出し判定用領域を決定することを特徴とする請求項3に記載の表示制御装置。   The area determination unit cuts out a focus frame for detecting a focus state as a reference without executing the processing of the subject detection unit, when the shooting setting included in the attribute information satisfies a specific condition. The display control apparatus according to claim 3, wherein a determination area is determined. 画像を順次に自動再生するスライドショーを実行する時に、画像内において切り出し判定用領域を決定し、前記切り出し判定用領域が予め設定された第1の条件に収まっているか否かを判断し、収まっている場合には前記第1の条件で切り出し判定用領域を決定し、収まっていない場合には、第2の条件または第3の条件に従って画像切り出し処理を行うよう制御する制御工程を有することを特徴とする表示制御方法。   When executing a slide show that automatically reproduces images sequentially, a cutout determination area is determined in the image, and it is determined whether or not the cutout determination area falls within a preset first condition. A cut-out determination area is determined based on the first condition if it is present, and a control step is performed to control the image cut-out process according to the second condition or the third condition if it is not within the first condition. Display control method. 画像を読み込む読み込み工程と、
前記読み込み工程において読み込んだ画像内に特定の被写体の有無、特定の被写体の位置を検出する被写体検出工程と、
前記被写体検出工程において検出された画像内の特定の被写体に基づいて切り出し判定用領域を決定する領域決定工程と、
前記領域決定工程により決定された切り出し判定用領域が画像内に収まっていない場合に、画像内に収まるように補正する領域補正工程と、
前記領域補正工程において補正された切り出し判定用領域と特定の被写体の位置とを比較し、その比較の結果に基づいて前記補正された切り出し判定用領域を切り出し領域とするかどうかを決定する制御工程とを有することを特徴とする表示制御方法。
A loading process for loading images,
A subject detection step for detecting the presence or absence of a specific subject in the image read in the reading step, and a position of the specific subject;
An area determination step for determining a cutout determination area based on a specific subject in the image detected in the subject detection step;
An area correction step for correcting the area to be included in the image when the area for cutout determination determined in the area determination step does not fit in the image;
A control step of comparing the cutout determination region corrected in the region correction step with the position of a specific subject and determining whether the corrected cutout determination region is set as a cutout region based on the comparison result A display control method comprising:
画像を順次に自動再生するスライドショーを実行する時に、画像内において切り出し判定用領域を決定し、前記切り出し判定用領域が予め設定された第1の条件に収まっているか否かを判断し、収まっている場合には前記第1の条件で切り出し判定用領域を決定し、収まっていない場合には、第2の条件または第3の条件に従って画像切り出し処理を行うよう制御する制御工程をコンピュータに実行させることを特徴とするプログラム。   When executing a slide show that automatically reproduces images sequentially, a cutout determination area is determined in the image, and it is determined whether or not the cutout determination area falls within a preset first condition. If there is, the computer determines a cutout determination area under the first condition, and if not, causes the computer to execute a control process for controlling to perform the image cutout process according to the second condition or the third condition. A program characterized by that. 画像を読み込む読み込み工程と、
前記読み込み工程において読み込んだ画像内に特定の被写体の有無、特定の被写体の位置を検出する被写体検出工程と、
前記被写体検出工程において検出された画像内の特定の被写体に基づいて切り出し判定用領域を決定する領域決定工程と、
前記領域決定工程により決定された切り出し判定用領域が画像内に収まっていない場合に、画像内に収まるように補正する領域補正工程と、
前記領域補正工程において補正された切り出し判定用領域と特定の被写体の位置とを比較し、その比較の結果に基づいて前記補正された切り出し判定用領域を切り出し領域とするかどうかを決定する制御工程とをコンピュータに実行させることを特徴とするプログラム。
A loading process for loading images,
A subject detection step for detecting the presence or absence of a specific subject in the image read in the reading step, and a position of the specific subject;
An area determination step for determining a cutout determination area based on a specific subject in the image detected in the subject detection step;
An area correction step for correcting the area to be included in the image when the area for cutout determination determined in the area determination step does not fit in the image;
A control step of comparing the cutout determination region corrected in the region correction step with the position of a specific subject and determining whether the corrected cutout determination region is set as a cutout region based on the comparison result A program characterized by causing a computer to execute.
請求項9または10に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 9 or 10 is recorded.
JP2009186639A 2009-08-11 2009-08-11 Image processing apparatus and control method thereof Expired - Fee Related JP5300649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009186639A JP5300649B2 (en) 2009-08-11 2009-08-11 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009186639A JP5300649B2 (en) 2009-08-11 2009-08-11 Image processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2011039784A true JP2011039784A (en) 2011-02-24
JP2011039784A5 JP2011039784A5 (en) 2012-09-20
JP5300649B2 JP5300649B2 (en) 2013-09-25

Family

ID=43767489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009186639A Expired - Fee Related JP5300649B2 (en) 2009-08-11 2009-08-11 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5300649B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089242A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, video data correction method and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354333A (en) * 2004-06-10 2005-12-22 Casio Comput Co Ltd Image reproducer and program
JP2005354332A (en) * 2004-06-10 2005-12-22 Casio Comput Co Ltd Image reproducer and program
JP2006094053A (en) * 2004-09-22 2006-04-06 Fuji Photo Film Co Ltd Photo movie creating method and apparatus thereof, and photo movie creating program
JP2006349943A (en) * 2005-06-15 2006-12-28 Canon Inc Method and apparatus for displaying image
JP2007026246A (en) * 2005-07-20 2007-02-01 Fujifilm Holdings Corp Album creation device and album creation program
JP2007150919A (en) * 2005-11-29 2007-06-14 Kyocera Corp Communication terminal and display method thereof
JP2008028955A (en) * 2006-07-25 2008-02-07 Fujifilm Corp Method and apparatus for automatic reproduction
JP2009080815A (en) * 2008-10-10 2009-04-16 Canon Inc Image display method and image display device
JP2009262539A (en) * 2008-04-01 2009-11-12 Seiko Epson Corp Printing equipment, printing method, printing setting decision device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354333A (en) * 2004-06-10 2005-12-22 Casio Comput Co Ltd Image reproducer and program
JP2005354332A (en) * 2004-06-10 2005-12-22 Casio Comput Co Ltd Image reproducer and program
JP2006094053A (en) * 2004-09-22 2006-04-06 Fuji Photo Film Co Ltd Photo movie creating method and apparatus thereof, and photo movie creating program
JP2006349943A (en) * 2005-06-15 2006-12-28 Canon Inc Method and apparatus for displaying image
JP2007026246A (en) * 2005-07-20 2007-02-01 Fujifilm Holdings Corp Album creation device and album creation program
JP2007150919A (en) * 2005-11-29 2007-06-14 Kyocera Corp Communication terminal and display method thereof
JP2008028955A (en) * 2006-07-25 2008-02-07 Fujifilm Corp Method and apparatus for automatic reproduction
JP2009262539A (en) * 2008-04-01 2009-11-12 Seiko Epson Corp Printing equipment, printing method, printing setting decision device
JP2009080815A (en) * 2008-10-10 2009-04-16 Canon Inc Image display method and image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089242A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, video data correction method and program

Also Published As

Publication number Publication date
JP5300649B2 (en) 2013-09-25

Similar Documents

Publication Publication Date Title
US10706892B2 (en) Method and apparatus for finding and using video portions that are relevant to adjacent still images
US8126207B2 (en) Subject tracking method, subject tracking device, and computer program product
JP4218712B2 (en) Face detection device, imaging device, and face detection method
JP4581924B2 (en) Image reproducing apparatus and image reproducing program
US7974492B2 (en) Image data reproducing apparatus with changing proportions of combined enlarged images, method of controlling same and control program therefor
JP4218711B2 (en) Face detection device, imaging device, and face detection method
JP2006295646A (en) Image processor and image processing program
JP2008541509A (en) Method and apparatus for incorporating iris color in red-eye correction
JP2006293783A (en) Image processing device and image processing program
US20110134208A1 (en) Panoramic image synthesizer, panoramic image synthesis method, and program
US20090115857A1 (en) Image capturing apparatus providing image blur information and method thereof
WO2012014946A1 (en) Image processing device and image processing program
JP5300649B2 (en) Image processing apparatus and control method thereof
US10771687B2 (en) Image capturing apparatus, image processing apparatus, image processing method, and storage medium
JP5804817B2 (en) Image processing apparatus, image processing method, and program
JP2014021901A (en) Object detection device, object detection method and program
JP2008076445A (en) Projection-type display device, projection-type display method, program for performing this method, and computer-readable medium with the program stored
CN113038218B (en) Video screenshot method, device, equipment and readable storage medium
US10321089B2 (en) Image preproduction apparatus, method for controlling the same, and recording medium
US9479701B2 (en) Image reproducing apparatus, image reproducing method, image capturing apparatus, and storage medium
JP2010157792A (en) Photographed object tracing device
US20120170868A1 (en) Image management method of digital photography device
JP2013131811A (en) Image display device
JP5868053B2 (en) Image processing method, image processing apparatus, and program
JP2009259120A (en) Information processing apparatus, control method therefor, program, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130618

R151 Written notification of patent or utility model registration

Ref document number: 5300649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees