JP5014110B2 - Imaging apparatus and background image generation method - Google Patents

Imaging apparatus and background image generation method Download PDF

Info

Publication number
JP5014110B2
JP5014110B2 JP2007335731A JP2007335731A JP5014110B2 JP 5014110 B2 JP5014110 B2 JP 5014110B2 JP 2007335731 A JP2007335731 A JP 2007335731A JP 2007335731 A JP2007335731 A JP 2007335731A JP 5014110 B2 JP5014110 B2 JP 5014110B2
Authority
JP
Japan
Prior art keywords
image
unit
display
extracted
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007335731A
Other languages
Japanese (ja)
Other versions
JP2009159358A (en
Inventor
正祐 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2007335731A priority Critical patent/JP5014110B2/en
Priority to KR1020080052230A priority patent/KR101427662B1/en
Publication of JP2009159358A publication Critical patent/JP2009159358A/en
Application granted granted Critical
Publication of JP5014110B2 publication Critical patent/JP5014110B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像装置及び背景画像生成方法に関する。   The present invention relates to an imaging apparatus and a background image generation method.

一般的に、デジタルカメラ等の撮像装置では、携帯電話に備えられた撮像機能よりも高画質な画像を撮ることができる。そのためデジタルカメラで撮影した画像を携帯電話等のディスプレイの壁紙(待ち受け画面)等に設定したいというニーズが存在する。   In general, an image pickup apparatus such as a digital camera can take a higher quality image than an image pickup function provided in a mobile phone. Therefore, there is a need to set an image taken with a digital camera as a wallpaper (standby screen) of a display such as a mobile phone.

しかしながら、デジタルカメラで撮影した画像を携帯電話に転送するのは手間がかかり、なおかつ、携帯電話では扱える画像データの形式やサイズ等に制限がある場合があり、撮像装置から入力された画像データをそのまま表示できるとは限らない。このような場合に、撮像装置で撮影された画像を適切に処理して携帯電話等に入力するための技術が考案されている。   However, transferring images taken with a digital camera to a mobile phone is time consuming, and there are cases where the format and size of image data that can be handled by a mobile phone are limited. It cannot always be displayed as it is. In such a case, a technique has been devised for appropriately processing an image taken by an imaging device and inputting the image to a mobile phone or the like.

例えば、特許文献1には、デジタルカメラ等で撮影された画像データに対し、送信先のサービス(プリントサービスや壁紙変換サービス等)が要求する画像条件(ファイル形式や画像サイズ等)に基づいて画像処理を行い、送信先に送信する技術が開示されている。   For example, Patent Document 1 discloses an image based on image conditions (file format, image size, etc.) requested by a destination service (print service, wallpaper conversion service, etc.) for image data captured by a digital camera or the like. A technique for performing processing and transmitting to a transmission destination is disclosed.

また、特許文献2には、画像表示装置が有する画像の表示能力に関する情報を受信し、受信された表示能力の情報に応じた画像データに変換してその画像表示装置に出力するデジタルカメラが開示されている。   Patent Document 2 discloses a digital camera that receives information related to the image display capability of an image display device, converts the image data into image data corresponding to the received display capability information, and outputs the image data to the image display device. Has been.

特開2004−40601号公報JP 2004-40601 A 特許第3925051号公報Japanese Patent No. 3925051

このように、デジタルカメラ等の撮像装置によって撮影された画像を、送信先の装置の画像表示能力等に応じて編集した上で送信するという技術は従来より提案されている。しかしながら、デジタルカメラ等で撮影された画像を携帯電話等の壁紙に設定するという用途を想定した場合、上述した従来技術では解決できない様々な問題が生じる。   As described above, a technique has been proposed in which an image captured by an imaging device such as a digital camera is transmitted after being edited according to the image display capability of a transmission destination device. However, when assuming an application in which an image taken with a digital camera or the like is set as wallpaper for a mobile phone or the like, various problems that cannot be solved by the above-described prior art occur.

例えば、通常、デジタルカメラに備えられたディスプレイは横長画面であるのに対し、携帯電話のディスプレイの多くは縦長画面である。従って、横長で撮影された画像を携帯電話のディスプレイの横方向の長さに合わせて縮小して縦長画面に表示させると、縦方向に余白が生じてしまう。逆に、縦方向の長さに合わせて縮小した場合、画像の横方向に表示されない領域が発生する。これを調整して、画像に含まれる主要な被写体がちょうどディスプレイの中央に表示されるようにしようとするのは、多くの手間がかかる。   For example, in general, a display provided in a digital camera is a horizontally long screen, whereas many displays of a mobile phone are vertically long screens. Therefore, if an image captured in landscape orientation is reduced in size in accordance with the lateral length of the display of the mobile phone and displayed on the portrait orientation screen, a margin will be generated in the portrait direction. Conversely, when the image is reduced in accordance with the length in the vertical direction, an area that is not displayed in the horizontal direction of the image is generated. It takes a lot of trouble to adjust this so that the main subject included in the image is displayed in the center of the display.

さらに、これらの複雑な作業を行って携帯電話のディスプレイに表示させるのに適した画像を作成したとしても、実際に表示させた場合には、ディスプレイに既に表示されている時計やカレンダー等で主要被写体が隠れてしまうといったことが発生する。また、時計やカレンダーの表示色と、その背景に表示されている部分の壁紙画像が同系色の場合には、時計やカレンダーの表示が識別しづらくなるという問題もある。   Furthermore, even if an image suitable for displaying on a mobile phone display is created by performing these complicated operations, when it is actually displayed, it is not possible to use a clock or calendar that is already displayed on the display. The subject may be hidden. In addition, when the display color of the clock or calendar and the wallpaper image of the portion displayed on the background are similar, there is a problem that the display of the clock or calendar becomes difficult to identify.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、デジタルカメラ等の撮像装置で撮影された画像を、簡単な手順により携帯電話等の外部装置に備えられた表示装置の背景画像(壁紙、待ち受け画像)として表示させることが可能な、新規かつ改良された撮像装置及び背景画像生成方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to transfer an image taken by an imaging device such as a digital camera to an external device such as a mobile phone by a simple procedure. It is an object of the present invention to provide a new and improved imaging device and background image generation method capable of being displayed as a background image (wallpaper, standby image) of a display device provided.

上記課題を解決するために、本発明のある観点によれば、撮影された撮影画像から、他の外部装置に備えられた表示装置に背景表示させるための背景画像を生成する撮像装置であって、表示装置の表示能力に関する表示装置情報と、表示装置の背景画像上に表示される文字または画像を含む付加情報に関する付加情報表示情報とを取得する表示装置情報取得部と、撮影画像に含まれる被写体を認識する被写体認識部と、背景画像に対する被写体の大きさを示す情報を取得する被写体サイズ取得部と、撮影画像の全部または一部を抽出し、抽出された抽出画像から背景画像を生成する背景画像生成部と、を備える撮像装置が提供される。また、上記背景画像生成部は、表示装置情報取得部、被写体認識部及び被写体サイズ取得部から出力される情報に基づいて、抽出画像の大きさ及び位置を算出する抽出位置算出部を含むことを特徴とする。   In order to solve the above-described problem, according to an aspect of the present invention, there is provided an imaging device that generates a background image for displaying a background on a display device provided in another external device from a captured image. A display device information acquisition unit for acquiring display device information relating to display capability of the display device and additional information display information relating to additional information including characters or images displayed on a background image of the display device; and a captured image. A subject recognition unit that recognizes a subject, a subject size acquisition unit that acquires information indicating the size of the subject with respect to the background image, and all or part of the captured image are extracted, and a background image is generated from the extracted image An image pickup apparatus including a background image generation unit is provided. The background image generation unit includes an extraction position calculation unit that calculates the size and position of the extracted image based on information output from the display device information acquisition unit, the subject recognition unit, and the subject size acquisition unit. Features.

かかる構成により、撮像装置によって撮影された画像を簡単に外部装置のディスプレイの背景画像として利用することが可能となる。また、このとき、撮影された画像に含まれる主要な被写体を認識し、その位置や大きさ等を考慮して背景画像が生成されるため、ユーザの意図にあった背景画像を簡単に得ることができる。   With this configuration, it is possible to easily use an image photographed by the imaging device as a background image on the display of the external device. At this time, the main subject included in the photographed image is recognized, and the background image is generated in consideration of the position, size, etc., so it is possible to easily obtain the background image that meets the user's intention. Can do.

また、抽出位置算出部によって算出された抽出画像の位置を撮影画像に重畳して表示する表示部と、表示部に抽出画像の位置が表示されている間に、抽出画像の位置が変更されるように入力を行うための入力部と、をさらに備え、背景画像生成部は、入力部からの入力によって変更された抽出画像の位置に基づいて撮影画像から抽出画像を抽出し、抽出画像を用いて背景画像を生成するようにしてもよい。これにより、ユーザは、背景画像が生成される前に撮影画像のどの部分が背景画像として抽出されるかを確認することができる。また、抽出される位置が、ユーザの意図と異なる場合は、その位置を変更して希望する背景画像を生成することが可能となる。   Further, the position of the extracted image is changed while the position of the extracted image calculated by the extracted position calculating unit is displayed on the captured image and the position of the extracted image is displayed on the display unit. The background image generation unit extracts the extracted image from the photographed image based on the position of the extracted image changed by the input from the input unit, and uses the extracted image. A background image may be generated. Thereby, the user can confirm which part of the captured image is extracted as the background image before the background image is generated. If the extracted position is different from the user's intention, the desired background image can be generated by changing the position.

また、付加情報表示情報は、付加情報の表示装置上の表示位置及び表示色についての情報を含み、背景画像生成部は、付加情報の表示装置上の表示位置に基づいて、抽出画像を背景画像として用いたときの付加情報の表示位置を算出し、該表示位置における抽出画像の色と付加情報の表示色とが類似している場合、表示位置における抽出画像の画像色を変更する画像色変更部をさらに含むようにしてもよい。このとき、画像色変更部は、表示位置における抽出画像の輝度値を変更するようにしてもよい。   The additional information display information includes information about the display position and display color of the additional information on the display device, and the background image generation unit converts the extracted image into the background image based on the display position of the additional information on the display device. When the display position of the additional information is calculated, and the color of the extracted image at the display position is similar to the display color of the additional information, the image color change for changing the image color of the extracted image at the display position A part may be further included. At this time, the image color changing unit may change the luminance value of the extracted image at the display position.

これにより、生成された背景画像を表示装置に表示させたときに、その上に表示される時計やカレンダー等が見づらくなることを防止することができ、外部装置において、時計やカレンダー等の付加情報の表示色等の設定を変更する手間を省くことができる。   Thus, when the generated background image is displayed on the display device, it is possible to prevent the clock or calendar displayed on the display device from being difficult to see. It is possible to save the trouble of changing the setting of the display color and the like.

また、表示部に抽出画像の位置が表示されるときに、画像色変更部によって変更された抽出画像の色を変更して表示させるようにしてもよい。さらに、付加情報が表示される位置に付加情報を表す文字や画像を重畳して表示させるようにしてもよい。これにより、ユーザは、表示装置に背景画像として表示させたときのイメージを事前に確認することが可能となり、それによって画像の位置を変更するか否か等を判断することができる。   Further, when the position of the extracted image is displayed on the display unit, the color of the extracted image changed by the image color changing unit may be changed and displayed. Further, a character or an image representing the additional information may be superimposed and displayed at a position where the additional information is displayed. Thereby, the user can confirm in advance an image when displayed on the display device as a background image, and can thereby determine whether or not to change the position of the image.

背景画像生成部は、抽出位置算出部によって算出された抽出画像の位置により決定される抽出画像の領域において撮影画像の領域外となる部分がある場合に、撮影画像の領域外となる部分の抽出画像を補填するための補填画像を生成する補填画像生成部をさらに含むようにしてもよい。このとき、補填画像生成部は、背景画像の領域外となる部分との境界に位置する抽出画像の画素の色に基づいて、補填画像を生成するようにしてもよい。これにより、例えば主要被写体が撮影画像の端に映っていた場合であっても、その周りの領域を補充して画像を生成することができる。   The background image generation unit extracts a portion that is outside the region of the photographed image when there is a portion that is outside the region of the photographed image in the region of the extracted image determined by the position of the extraction image calculated by the extraction position calculation unit. A supplementary image generation unit that generates a supplementary image for supplementing the image may be further included. At this time, the supplemental image generation unit may generate the supplemental image based on the color of the pixel of the extracted image located at the boundary with the portion outside the region of the background image. Thereby, for example, even when the main subject is reflected at the end of the captured image, it is possible to generate an image by supplementing the surrounding area.

また、表示部に抽出画像の位置が表示されるときに、補填画像生成部によって生成された補填画像を同時に表示させるようにしてもよい。これにより、補充画像を含めた最終的な背景画像のイメージを事前に確認することが可能となる。   In addition, when the position of the extracted image is displayed on the display unit, the supplementary image generated by the supplemental image generation unit may be displayed at the same time. Thereby, it becomes possible to confirm in advance the image of the final background image including the supplementary image.

また、上記課題を解決するために、本発明の別の観点によれば、撮像装置によって撮影された撮影画像から、他の外部装置に備えられた表示装置に背景表示させるための背景画像を生成する背景画像生成方法であって、表示装置の表示能力に関する表示装置情報と、表示装置の背景画像上に表示される文字または画像を含む付加情報に関する付加情報表示情報とを取得する表示装置情報取得ステップと、撮影画像に含まれる被写体を認識する被写体認識ステップと、背景画像に対する被写体の大きさを示す情報を取得する被写体サイズ取得ステップと、撮影画像の全部または一部を抽出し、抽出された抽出画像から背景画像を生成する背景画像生成ステップと、を含む。背景画像生成方法が提供される。また、上記背景画像生成ステップは、表示装置情報取得部、被写体認識部及び被写体サイズ取得部から出力される情報に基づいて、抽出画像の大きさ及び位置を算出する抽出位置算出ステップを含むことを特徴とする。   In order to solve the above-described problem, according to another aspect of the present invention, a background image for displaying a background on a display device provided in another external device is generated from a photographed image photographed by an imaging device. A display device information acquisition method for acquiring display device information relating to display capability of a display device and additional information display information relating to additional information including characters or images displayed on the background image of the display device A step, a subject recognition step for recognizing a subject included in the photographed image, a subject size acquisition step for obtaining information indicating the size of the subject relative to the background image, and all or a part of the photographed image is extracted and extracted And a background image generation step of generating a background image from the extracted image. A background image generation method is provided. The background image generation step includes an extraction position calculation step for calculating the size and position of the extracted image based on information output from the display device information acquisition unit, the subject recognition unit, and the subject size acquisition unit. Features.

以上説明したように本発明によれば、デジタルカメラ等の撮像装置で撮影された画像を、簡単な手順により携帯電話等の外部装置に備えられた表示装置の背景画像として表示させることが可能となる。   As described above, according to the present invention, it is possible to display an image taken by an imaging device such as a digital camera as a background image of a display device provided in an external device such as a mobile phone by a simple procedure. Become.

以下に添付図面を参照しながら、本発明にかかる撮像装置及び背景画像生成方法の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of an imaging apparatus and a background image generation method according to the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

まず、本発明の一実施形態にかかる撮像装置について説明する。本実施形態にかかる撮像装置は、撮像された画像を、携帯電話等の外部装置に備えられる表示装置の背景画像(壁紙、待ち受け画像)として簡単に表示させるようにするための背景画像生成機能を備えたことを特徴とするものである。以下では、撮像装置の一例としてデジタルスチルカメラの例を用いて説明するが、本発明はかかる例に限定されるものではない。本発明にかかる撮像装置は、例えば、デジタルビデオカメラ等の動画撮影機能を備えたものであってもよい。   First, an imaging apparatus according to an embodiment of the present invention will be described. The imaging apparatus according to the present embodiment has a background image generation function for easily displaying a captured image as a background image (wallpaper, standby image) of a display device provided in an external device such as a mobile phone. It is characterized by having. Hereinafter, a digital still camera will be described as an example of an imaging apparatus, but the present invention is not limited to such an example. The imaging apparatus according to the present invention may have a moving image shooting function such as a digital video camera.

(デジタルスチルカメラ100のハードウェア構成)
図1は、本発明の一実施形態にかかる撮像装置としてのデジタルスチルカメラ100のハードウェア構成の概略を示す図である。図1に示すように、本実施形態にかかるデジタルスチルカメラ100は、撮像処理部110と、画像処理部120と、制御部130とにより構成される。以下、各部の詳細について説明する。
(Hardware configuration of digital still camera 100)
FIG. 1 is a diagram showing an outline of a hardware configuration of a digital still camera 100 as an imaging apparatus according to an embodiment of the present invention. As illustrated in FIG. 1, the digital still camera 100 according to the present embodiment includes an imaging processing unit 110, an image processing unit 120, and a control unit 130. Details of each part will be described below.

(撮像処理部110)
撮像処理部110は、光学ブロック111と、駆動部112と、撮像素子113と、アナログ処理回路114とにより構成される。光学ブロック111は、被写体を撮像するためのレンズ群、絞り調整機構、フォーカス調整機構、ズーム機構、シャッター機構、フラッシュ機構等を内部に備える。駆動部112は、制御部130から制御信号を受けて制御され、光学ブロック111の絞り調整機構、ズーム機構、シャッター機構等を電動駆動する。
(Imaging processing unit 110)
The imaging processing unit 110 includes an optical block 111, a driving unit 112, an imaging element 113, and an analog processing circuit 114. The optical block 111 includes a lens group for imaging a subject, an aperture adjustment mechanism, a focus adjustment mechanism, a zoom mechanism, a shutter mechanism, a flash mechanism, and the like. The drive unit 112 is controlled in response to a control signal from the control unit 130, and electrically drives the aperture adjustment mechanism, the zoom mechanism, the shutter mechanism, and the like of the optical block 111.

撮像素子113は、例えば、CCD(Charge Coupled Device)等の固体撮像素子により構成され、その結像面に光学ブロック111を通じた像が結像される。また、撮像素子113は、アナログ処理回路114により生成されるタイミング信号を受けて、結像面に結像されている被写体像を撮像信号に変換し、アナログ処理回路114に供給する。   The image sensor 113 is configured by, for example, a solid-state image sensor such as a charge coupled device (CCD), and an image through the optical block 111 is formed on an image formation surface thereof. Further, the image sensor 113 receives the timing signal generated by the analog processing circuit 114, converts the subject image formed on the imaging surface into an imaging signal, and supplies the image signal to the analog processing circuit 114.

アナログ処理回路114は、撮像素子113からのアナログ撮像信号をデジタル信号へと変換するための処理を行う。アナログ処理回路114は、撮像素子113からの撮像信号の自動利得調整を行うAGC(Auto Gain Control)や、アナログ信号をデジタル信号に変換するAD(Analog Digital)変換器、シャッター操作に応じて制御部130から供給される制御信号に基づいて撮像素子113への画像取り込みタイミング信号を生成するタイミングジェネレータ等を内部に備える。アナログ処理回路114によって出力されるデジタル撮像信号は、RAW画像データとしてRAM134等の記憶媒体に記憶される。   The analog processing circuit 114 performs processing for converting an analog imaging signal from the imaging element 113 into a digital signal. The analog processing circuit 114 is an AGC (Auto Gain Control) that automatically adjusts the gain of an image pickup signal from the image sensor 113, an AD (Analog Digital) converter that converts an analog signal into a digital signal, and a control unit according to a shutter operation. A timing generator or the like that generates an image capture timing signal to the image sensor 113 based on a control signal supplied from 130 is provided internally. The digital imaging signal output by the analog processing circuit 114 is stored in a storage medium such as the RAM 134 as RAW image data.

(画像処理部120)
画像処理部120は、アナログ処理回路114によって出力されRAM134等に記憶されたRAW画像データを読み出してデジタル画像処理を行い、JPEG(Joint Photographic Experts Group)やTIFF(Tagged Image File Format)等の画像フォーマットに変換してメモリカード143等の記憶媒体に記録する。画像処理部120は、RAW画像データに対し、画素補間処理、ガンマ補正処理、ホワイトバランス処理等の各種の画像処理を施す。また、画像処理部120は、制御部130からの制御信号に基づいて、メモリカード143等に格納されている撮影画像に対し、サイズ変更(リサイズ、画素数変更)やトリミング(Trimming、クロップ:Crop)等の処理を行う。
(Image processing unit 120)
The image processing unit 120 reads out the RAW image data output from the analog processing circuit 114 and stored in the RAM 134 and the like, performs digital image processing, and image formats such as JPEG (Joint Photographic Experts Group) and TIFF (Tagged Image File Format). And recorded in a storage medium such as the memory card 143. The image processing unit 120 performs various types of image processing such as pixel interpolation processing, gamma correction processing, and white balance processing on the RAW image data. Further, the image processing unit 120 changes the size (resizing, changing the number of pixels) or trimming (Trimming, Crop: Crop) on the captured image stored in the memory card 143 or the like based on the control signal from the control unit 130. ) Etc. are performed.

(制御部130)
制御部130は、図1に示すように、MPU(Micro Processing Unit)131と、ROM(Read Only Memory)133と、RAM(Random Access Memory)134と、操作入力部141を接続するための操作入力インタフェース135と、表示部142を接続するための表示制御部136と、メモリカード143を装填するためのメモリカードインタフェース137と、通信インタフェース138と、外部入出力インタフェース139とがシステムバス132を介して接続されることにより構成される。
(Control unit 130)
As shown in FIG. 1, the control unit 130 is an operation input for connecting an MPU (Micro Processing Unit) 131, a ROM (Read Only Memory) 133, a RAM (Random Access Memory) 134, and an operation input unit 141. An interface 135, a display control unit 136 for connecting the display unit 142, a memory card interface 137 for loading the memory card 143, a communication interface 138, and an external input / output interface 139 are connected via the system bus 132. It is configured by being connected.

制御部130は、撮像処理部110及び画像処理部120を制御してデジタルスチルカメラ100の全体を制御し、撮像処理が実行されるようにする。特に、制御部130は、撮像処理部110によって撮像された画像から、外部機器の表示装置に背景画像として表示させるための背景画像を生成する背景画像生成機能を有する。制御部130は、メモリカード143等から読み出した画像データや撮像処理部110から出力されRAM134等に記憶されたJPEG画像データに対し、ROM133等に格納されているプログラムをMPU131が実行することによって上記背景画像生成機能を実行する。以下、制御部130の構成について説明する。   The control unit 130 controls the imaging processing unit 110 and the image processing unit 120 to control the entire digital still camera 100 so that the imaging process is executed. In particular, the control unit 130 has a background image generation function for generating a background image to be displayed as a background image on the display device of the external device from the image captured by the imaging processing unit 110. The control unit 130 causes the MPU 131 to execute the program stored in the ROM 133 or the like on the image data read from the memory card 143 or the like or the JPEG image data output from the imaging processing unit 110 and stored in the RAM 134 or the like. Executes the background image generation function. Hereinafter, the configuration of the control unit 130 will be described.

MPU131は、ROM133に記録された制御用プログラムを実行することによって生成される各種の制御信号を各部に供給し、デジタルスチルカメラ100の全体を制御する。ROM133には、撮像処理部110や画像処理部120、表示制御部136等やメモリカードインタフェース137を制御するためのプログラムが格納されている。RAM134は、上述した撮像処理部110のアナログ処理回路114から出力されるRAW画像データや、メモリカード143から読み出され、画像処理部120にて復号されたJPEGデータが格納される記憶媒体である。また、RAM134は、MPU131の作業領域としても用いられる。   The MPU 131 supplies various control signals generated by executing the control program recorded in the ROM 133 to each unit, and controls the entire digital still camera 100. The ROM 133 stores programs for controlling the imaging processing unit 110, the image processing unit 120, the display control unit 136, and the like, and the memory card interface 137. The RAM 134 is a storage medium that stores RAW image data output from the analog processing circuit 114 of the imaging processing unit 110 described above and JPEG data read from the memory card 143 and decoded by the image processing unit 120. . The RAM 134 is also used as a work area for the MPU 131.

操作入力インタフェース135に接続される操作入力部141には、撮影モードを切り替えるためのモード切替キー、ズーム調整キー、露出調整のためのキー、シャッターキー、表示部142に対する表示調整キー等の複数のキーが設けられている。操作入力インタフェース135は、操作入力部141からの操作信号をMPU131に伝達する。MPU131は、操作入力インタフェース135から入力される操作信号に基づいて操作内容を判別し、判別結果に応じた制御処理を行う。   The operation input unit 141 connected to the operation input interface 135 includes a plurality of modes such as a mode switching key for switching a shooting mode, a zoom adjustment key, a key for exposure adjustment, a shutter key, and a display adjustment key for the display unit 142. A key is provided. The operation input interface 135 transmits an operation signal from the operation input unit 141 to the MPU 131. The MPU 131 determines the operation content based on the operation signal input from the operation input interface 135, and performs control processing according to the determination result.

表示制御部136に接続される表示部142は、TFT(Thin Film Transistor)等からなる液晶ディスプレイ等により構成される。表示制御部136は、MPU131によって制御され、画像処理部120によって処理された画像や、メモリカード143から読み出された画像を表示部142に表示させる。   The display unit 142 connected to the display control unit 136 is configured by a liquid crystal display including a TFT (Thin Film Transistor) and the like. The display control unit 136 is controlled by the MPU 131 and causes the display unit 142 to display an image processed by the image processing unit 120 and an image read from the memory card 143.

メモリカードインタフェース137は、画像処理部120から出力される画像データをメモリカード143に書き込む。また、メモリカードインタフェース137は、メモリカード143から画像データを読み出して画像処理部120等に供給する。メモリカード143は、メモリカードインタフェース137によって読み書きされる記憶媒体であり、撮影された画像データや画像データに付随する属性情報等が主に記録される。   The memory card interface 137 writes the image data output from the image processing unit 120 to the memory card 143. The memory card interface 137 reads image data from the memory card 143 and supplies it to the image processing unit 120 and the like. The memory card 143 is a storage medium that is read and written by the memory card interface 137, and mainly records captured image data, attribute information associated with the image data, and the like.

通信インタフェース138は、外部機器との通信を行うためのインタフェースであって、ネットワークを介して外部機器から送信されたデータを受信し、あるいはネットワークを介してデータを送信する。外部入出力インタフェース139は、外部機器とデジタルスチルカメラ100とを接続しデータの入出力を行うためのインタフェースであって、デジタルスチルカメラ100のメモリカード143に格納されたデータを外部機器に出力したり、外部機器から入力されるデータをデジタルスチルカメラ100に入力したりするためのインタフェースである。
以上、本実施形態にかかるデジタルスチルカメラ100のハードウェア構成について説明した。
The communication interface 138 is an interface for performing communication with an external device, and receives data transmitted from the external device via the network or transmits data via the network. The external input / output interface 139 is an interface for connecting an external device and the digital still camera 100 to input / output data, and outputs the data stored in the memory card 143 of the digital still camera 100 to the external device. Or an interface for inputting data input from an external device to the digital still camera 100.
Heretofore, the hardware configuration of the digital still camera 100 according to the present embodiment has been described.

(背景画像生成機能の構成)
次に、図2を参照して、デジタルスチルカメラ100の制御部130によって実行される背景画像生成機能について説明する。図2は、デジタルスチルカメラ100の背景画像生成機能を実現するための概略構成を示す機能ブロック図である。
(Configuration of background image generation function)
Next, a background image generation function executed by the control unit 130 of the digital still camera 100 will be described with reference to FIG. FIG. 2 is a functional block diagram showing a schematic configuration for realizing the background image generation function of the digital still camera 100.

図2に示すように、本実施形態の背景画像生成機能は、表示装置情報取得部101と、被写体認識部102と、被写体サイズ取得部103と、背景画像生成部104とにより構成される。   As illustrated in FIG. 2, the background image generation function of the present embodiment includes a display device information acquisition unit 101, a subject recognition unit 102, a subject size acquisition unit 103, and a background image generation unit 104.

なお、図2に示す背景画像生成機能を構成する各部は、ROM133等に格納されMPU131によって実行されることが可能な、各部の機能を実行するソフトウェアプログラムにより実現されてもよく、あるいは、専用のハードウェアによって実現されてもよい。また、上記ソフトウェアプログラムは、上述したようにROM133等のコンピュータ読み取り可能な記憶媒体に記憶されたものを読み出すことにより実行されてもよいし、あるいは、ネットワーク等を介してデジタルスチルカメラ100に提供されるものであってもよい。   2 may be realized by a software program that executes the function of each unit, which is stored in the ROM 133 or the like and can be executed by the MPU 131, or a dedicated image generation function shown in FIG. It may be realized by hardware. The software program may be executed by reading out a program stored in a computer-readable storage medium such as the ROM 133 as described above, or may be provided to the digital still camera 100 via a network or the like. It may be a thing.

(表示装置情報取得部101)
表示装置情報取得部101は、本画像編集機能によって生成された背景画像を表示させる外部機器の表示装置に関する情報を取得し背景画像生成部104に入力する。表示装置情報には、例えば、対象となる外部機器に備えられた表示装置の表示能力に関する情報(表示可能な画像のサイズや画像フォーマット等)と、表示装置の背景画像上に表示されている時計やアイコン、カレンダー等(以下、付加情報と称する)の表示に関する設定情報(付加情報表示情報)が含まれる。付加情報表示情報には、例えば、付加情報の表示位置や表示される領域の大きさ、表示色の情報が含まれる。
(Display device information acquisition unit 101)
The display device information acquisition unit 101 acquires information about a display device of an external device that displays a background image generated by the image editing function and inputs the information to the background image generation unit 104. The display device information includes, for example, information (displayable image size, image format, etc.) regarding the display capability of the display device provided in the target external device, and a clock displayed on the background image of the display device. And setting information (additional information display information) related to display of icons, calendars, etc. (hereinafter referred to as additional information). The additional information display information includes, for example, information on the display position of the additional information, the size of the displayed area, and the display color.

表示装置情報取得部101は、これらの表示装置情報を操作入力部141や、通信インタフェース138、外部入出力インタフェース139等から取得する。例えば、表示装置情報取得部101は、操作入力部141から入力される表示装置情報の値(表示装置の表示可能な画像サイズの数値等)を、操作入力インタフェース135を介して取得するようにしてもよい。あるいは、ROM133等の記憶媒体に格納された選択肢の中から選択された値が操作入力部141から入力されてもよい。   The display device information acquisition unit 101 acquires the display device information from the operation input unit 141, the communication interface 138, the external input / output interface 139, and the like. For example, the display device information acquisition unit 101 acquires a value of display device information input from the operation input unit 141 (such as a numerical value of an image size that can be displayed on the display device) via the operation input interface 135. Also good. Alternatively, a value selected from options stored in a storage medium such as the ROM 133 may be input from the operation input unit 141.

また、表示装置情報取得部101は、ネットワークを介して外部機器から送信される表示装置情報を通信インタフェース138から取得したり、外部入出力インタフェース139を介して接続された外部機器から入力される情報を取得するようにしてもよい。   The display device information acquisition unit 101 acquires display device information transmitted from an external device via a network from the communication interface 138 or information input from an external device connected via the external input / output interface 139. May be obtained.

また、表示装置情報取得部101は、撮像処理部110によって撮影された画像から表示装置情報を取得するようにしてもよい。例えば、デジタルスチルカメラ100によって対象となる外部機器の表示装置を撮影し、撮影された表示装置の画像から付加情報の表示位置や表示領域の大きさ、表示色等の情報を取得するようにしてもよい。この場合、表示装置の表示能力に関する情報は、他の方法、例えば、操作入力部141からの入力等により取得される。なお、上述した表示装置情報の取得方法は、2以上の方法を組み合わせて用いられてもよい。   In addition, the display device information acquisition unit 101 may acquire display device information from an image captured by the imaging processing unit 110. For example, the display device of the target external device is photographed by the digital still camera 100, and information such as the display position of the additional information, the size of the display area, and the display color is acquired from the image of the photographed display device. Also good. In this case, the information regarding the display capability of the display device is acquired by another method, for example, input from the operation input unit 141 or the like. Note that the display device information acquisition method described above may be used in combination of two or more methods.

(被写体認識部102)
被写体認識部102は、背景画像を生成する対象となる撮影画像(以下、対象画像という)に含まれる主要な被写体を自動認識する。認識される被写体の数は1つであってもよく、複数であってもよい。以下では、対象画像に含まれる被写体のうちの1つを主要被写体として認識するものとして説明する。対象画像から主要被写体が認識されたら、主要被写体が含まれる領域の画像サイズと対象画像中における位置(例えば、主要被写体が含まれる領域の左上のピクセル座標)を求め、背景画像生成部104に入力する。
(Subject recognition unit 102)
The subject recognition unit 102 automatically recognizes main subjects included in a captured image (hereinafter referred to as a target image) that is a target for generating a background image. The number of recognized subjects may be one or plural. In the following description, it is assumed that one of the subjects included in the target image is recognized as the main subject. When the main subject is recognized from the target image, the image size of the area including the main subject and the position in the target image (for example, the upper left pixel coordinates of the area including the main subject) are obtained and input to the background image generation unit 104 To do.

主要被写体の認識は、顔画像の検出や、エッジ抽出等による物体検出によって行われる。例えば、被写体認識部102は、パターンマッチング等の方法により顔画像の検出を行い、検出された顔画像の領域を主要被写体の領域として認識するようにしてもよい。複数の顔画像が検出された場合は、最も画像の中心に近い位置にある顔画像を主要被写体としたり、最も領域面積の大きい顔画像を主要被写体として決定するようにしてもよい。   The main subject is recognized by detecting a face image or detecting an object by edge extraction or the like. For example, the subject recognition unit 102 may detect a face image by a method such as pattern matching and recognize the detected face image region as the main subject region. When a plurality of face images are detected, the face image closest to the center of the image may be determined as the main subject, or the face image having the largest area may be determined as the main subject.

また、顔画像が検出されなかった場合、被写体認識部102は、対象画像に対してエッジ抽出等を行うことにより物体検出を行う。ここでも、複数の物体が検出された場合は、物体の位置や面積等によって主要被写体を決定するようにしてもよい。なお、上述した顔画像検出処理及び物体検出処理においては、従来周知のパターンマッチングやエッジ抽出等の画像処理技術を用いることができる。   When no face image is detected, the subject recognition unit 102 performs object detection by performing edge extraction or the like on the target image. Again, when a plurality of objects are detected, the main subject may be determined based on the position and area of the object. In the face image detection process and the object detection process described above, conventionally known image processing techniques such as pattern matching and edge extraction can be used.

(被写体サイズ取得部103)
被写体サイズ取得部103は、生成される背景画像に占める主要被写体の大きさ(以下、被写体サイズという)に関する情報を取得し背景画像生成部104に入力する。被写体サイズは、例えば、主要被写体が背景画像中に占める割合(例えば、背景画像の50%)等により指定されることができる。被写体サイズの情報は、ROM133等の記憶媒体に予め記録された値であってもよく、操作入力部141から入力される値であってもよい。あるいは、ROM133等に予め記録された複数の値の中から選択された値であってもよい。
(Subject size acquisition unit 103)
The subject size acquisition unit 103 acquires information related to the size of the main subject (hereinafter referred to as subject size) in the generated background image and inputs the information to the background image generation unit 104. The subject size can be specified by, for example, the ratio of the main subject to the background image (for example, 50% of the background image). The subject size information may be a value recorded in advance in a storage medium such as the ROM 133, or may be a value input from the operation input unit 141. Alternatively, it may be a value selected from a plurality of values recorded in advance in the ROM 133 or the like.

(背景画像生成部104)
背景画像生成部104は、表示装置情報取得部101、被写体認識部102及び被写体サイズ取得部103から入力される情報に基づいて対象画像を編集し、外部機器の表示装置に背景画像として表示させるための画像を生成する。背景画像生成部104は、図2に示すように、抽出位置算出部104aと、補填画像生成部104bと、画像色変更部104cと、トリミング処理部104dと、サイズ変更部104eと、により構成される。
(Background image generation unit 104)
The background image generation unit 104 edits the target image based on information input from the display device information acquisition unit 101, the subject recognition unit 102, and the subject size acquisition unit 103, and displays the target image as a background image on the display device of the external device. Generate an image of As shown in FIG. 2, the background image generation unit 104 includes an extraction position calculation unit 104a, a compensation image generation unit 104b, an image color change unit 104c, a trimming processing unit 104d, and a size change unit 104e. The

(抽出位置算出部104a)
抽出位置算出部104aは、表示装置情報取得部101によって取得された表示装置の表示可能画像サイズと、被写体認識部102によって認識された主要被写体の領域の大きさと、被写体サイズ取得部103によって取得された被写体サイズとに基づいて、撮影画像から背景画像として抽出される部分の画像(抽出画像)の大きさ及び位置を算出する。具体的には、被写体認識部102によって認識された主要被写体の領域の大きさが、被写体サイズで定められる背景画像中の被写体の大きさになるように抽出画像の大きさを算出する。
(Extraction position calculation unit 104a)
The extraction position calculation unit 104 a is acquired by the display device information acquisition unit 101, the displayable image size of the display device, the size of the main subject area recognized by the subject recognition unit 102, and the subject size acquisition unit 103. Based on the subject size, the size and position of the image (extracted image) of the portion extracted as the background image from the captured image is calculated. Specifically, the size of the extracted image is calculated so that the size of the area of the main subject recognized by the subject recognition unit 102 becomes the size of the subject in the background image determined by the subject size.

例えば、表示装置情報取得部101によって与えられた表示装置の表示可能画像サイズが460×800ピクセルであり、被写体認識部102によって認識された主要被写体の領域が600×800ピクセルであり、被写体サイズ取得部103によって取得された被写体サイズが背景画像の50%であったとする。この場合、抽出画像の全画素数は、600×800×1/0.5=960000ピクセルである。これを表示装置の表示可能画像サイズの縦横比に配分すると、下記の数式1によって抽出画像のサイズ(xは縦方向のサイズ、yは横方向のサイズ)が求められる。   For example, the displayable image size of the display device given by the display device information acquisition unit 101 is 460 × 800 pixels, the main subject area recognized by the subject recognition unit 102 is 600 × 800 pixels, and subject size acquisition is performed. Assume that the subject size acquired by the unit 103 is 50% of the background image. In this case, the total number of pixels of the extracted image is 600 × 800 × 1 / 0.5 = 960000 pixels. When this is allocated to the aspect ratio of the displayable image size of the display device, the size of the extracted image (x is the size in the vertical direction and y is the size in the horizontal direction) is obtained by the following formula 1.

Figure 0005014110
従って、抽出画像サイズは、742×1292ピクセルとなる。
Figure 0005014110
Therefore, the extracted image size is 742 × 1292 pixels.

もし、上記の式で求められた抽出画像サイズよりも元の対象画像が小さい場合は、さらに対象画像の大きさに合わせて抽出画像サイズを補正する。例えば、上記の例で、対象画像の縦の大きさ(y)が1000ピクセルであった場合、y方向の大きさが1000<1292となり対象画像の縦の長さが抽出画像サイズに満たないため、補正が必要となる。この場合、例えば、抽出画像の縦の長さyを1000ピクセルとし、横の長さxをそれに合わせて以下のように補正する。
x=1000×742/1292≒574
従って、抽出画像サイズは、574×1000ピクセルとなる。
If the original target image is smaller than the extracted image size obtained by the above formula, the extracted image size is further corrected according to the size of the target image. For example, in the above example, when the vertical size (y) of the target image is 1000 pixels, the size in the y direction is 1000 <1292, and the vertical length of the target image is less than the extracted image size. Correction is necessary. In this case, for example, the vertical length y of the extracted image is set to 1000 pixels, and the horizontal length x is corrected as follows in accordance with it.
x = 1000 × 742 / 1292≈574
Therefore, the extracted image size is 574 × 1000 pixels.

抽出位置算出部104aは、抽出画像サイズの算出後、抽出画像の位置を決定する。このとき、抽出位置算出部104aは、表示装置情報取得部101から入力される付加情報表示情報に基づいて、主要被写体が付加情報の表示位置と重ならないように抽出画像の位置を決定する。   The extraction position calculation unit 104a determines the position of the extracted image after calculating the extracted image size. At this time, the extraction position calculation unit 104a determines the position of the extracted image based on the additional information display information input from the display device information acquisition unit 101 so that the main subject does not overlap the display position of the additional information.

例えば、図3に示すように、付加情報である時計表示が、背景画像の下の方に表示されている場合、主要被写体である人物の顔の中心が、背景画像の時計表示領域を除く領域の中心と重なるように抽出画像の位置を決定する。   For example, as shown in FIG. 3, when the clock display as additional information is displayed at the bottom of the background image, the center of the face of the person who is the main subject is an area excluding the clock display area of the background image. The position of the extracted image is determined so as to overlap with the center of.

一方、図4に示すように、付加情報が画面中央にあり、主要被写体を付加情報の上側または下側(あるいは右側、左側)のいずれに配置したとしても、必ず付加情報と重なってしまう場合は、上側または下側(あるいは右側、左側)のいずれかを選択して配置するようにしてもよい。例えば、主要被写体が必ず付加情報の上側になるように抽出画像の位置を決定してもよいし、あるいは、主要被写体と付加情報との重なり具合に応じて抽出画像の位置を決定するようにしてもよい。   On the other hand, as shown in FIG. 4, when the additional information is in the center of the screen and the main subject is placed on either the upper side or the lower side (or the right side or the left side) of the additional information, it always overlaps with the additional information. Alternatively, either the upper side or the lower side (or the right side or the left side) may be selected and arranged. For example, the position of the extracted image may be determined so that the main subject is always above the additional information, or the position of the extracted image is determined according to the degree of overlap between the main subject and the additional information. Also good.

また、主要被写体と付加情報とが重なっていると判定する基準について、例えば、主要被写体の領域の半分以上に付加情報の表示領域が重なっている場合等に規定し、それ以下の場合は、重なっていないと判断するようにしてもよい。   The criterion for determining that the main subject overlaps with the additional information is defined, for example, when the additional information display area overlaps more than half of the area of the main subject. You may make it judge that it is not.

また、抽出位置算出部104aにより抽出画像のサイズ及び位置を算出後、対象画像中の抽出画像の領域を示す枠を対象画像に重畳して表示部142に表示させるようにしてもよい。さらに、表示部142に上記表示がされている間に、操作入力部141に備えられたキーを操作することによってユーザが枠の位置を任意に変更できるようにしてもよい。   Further, after calculating the size and position of the extracted image by the extraction position calculation unit 104a, a frame indicating the region of the extraction image in the target image may be superimposed on the target image and displayed on the display unit 142. Further, the user may arbitrarily change the position of the frame by operating a key provided in the operation input unit 141 while the display unit 142 displays the above.

(補填画像生成部104b)
補填画像生成部104bは、図5に示すように、抽出位置算出部104aによって算出された抽出画像の位置において、抽出画像の領域が必要な背景画像の領域に満たない場合に、不足部分の領域を補填するための補填画像を生成する。補填画像は、例えば、不足部分の領域との境界部分の対象画像の色情報を平均した色の画素によって構成される画像としてもよい。また、対象画像との境界に位置する所定量の領域を境界部分の色と上記の色とのグラデーションにより生成するようにしてもよい。
(Supplementary image generation unit 104b)
As shown in FIG. 5, the supplemental image generation unit 104 b displays the deficient area when the extracted image area is less than the necessary background image area at the extracted image position calculated by the extraction position calculating section 104 a. A supplementary image for supplementing is generated. The supplementary image may be, for example, an image configured by pixels of colors obtained by averaging the color information of the target image at the boundary portion with the insufficient portion area. Further, a predetermined amount of region located at the boundary with the target image may be generated by gradation between the color of the boundary portion and the above color.

(画像色変更部104c)
画像色変更部104cは、時計やカレンダー等の付加情報の表示色(文字色または画像色)と、付加情報と重なる部分の抽出画像の色を比較し、同系色あるいは同輝度であればその部分の画像の色及び明るさを補正する。例えば、下記の数式2に基づいて、比較するそれぞれの色のYCbCr表色系の値の差を求め、その値が所定の閾値よりも小さければ両者の色が近いと判断し、画像色の補正を行うようにしてもよい。下記の例では、閾値=15に設定した場合を示している。

Figure 0005014110
(ΔY、ΔCb及びΔCrは、それぞれY、Cb及びCrの値の差) (Image color changing unit 104c)
The image color changing unit 104c compares the display color (character color or image color) of the additional information such as a clock or calendar with the color of the extracted image that overlaps the additional information. Correct the color and brightness of the image. For example, based on Equation 2 below, the difference between the values of the YCbCr color system of each color to be compared is obtained, and if the value is smaller than a predetermined threshold, it is determined that the two colors are close, and the image color is corrected. May be performed. The following example shows a case where the threshold value is set to 15.
Figure 0005014110
(ΔY, ΔCb and ΔCr are the differences in the values of Y, Cb and Cr, respectively)

上記のようにして付加情報の表示色と抽出画像の色とを比較し、比較の結果両者の色が近いと判断された場合、画像色変更部104cは、抽出画像の画像色を変更する。例えば、画像色変更部104cは、抽出画像の画像色のYCbCr値の輝度値(明度)Yの値を変更することにより画像色を変更するようにしてもよい。例えば、付加情報の表示色の輝度値Yの値がY≧128であれば(YCbCr値が8ビットの場合)、抽出画像の画像色の輝度値Yの値をY=Y−64とし、付加情報の表示色の輝度値Yの値がY<128であれば、抽出画像の画像色の輝度値Yの値をY=Y+64とするようにしてもよい。   As described above, the display color of the additional information is compared with the color of the extracted image, and when it is determined that the two colors are close as a result of the comparison, the image color changing unit 104c changes the image color of the extracted image. For example, the image color changing unit 104c may change the image color by changing the luminance value (lightness) Y of the YCbCr value of the image color of the extracted image. For example, if the value of the luminance value Y of the display color of the additional information is Y ≧ 128 (when the YCbCr value is 8 bits), the luminance value Y of the image color of the extracted image is set to Y = Y−64. If the value of the luminance value Y of the display color of information is Y <128, the luminance value Y of the image color of the extracted image may be set to Y = Y + 64.

さらに、画像色変更部104cは、図6に示すように、抽出画像の画像色を変更した部分と変更していない部分との境界部分の色を両者の色のグラデーションになるように変更してもよい。   Further, as shown in FIG. 6, the image color changing unit 104c changes the color of the boundary portion between the portion where the image color of the extracted image is changed and the portion where the image color is not changed so as to obtain a gradation of both colors. Also good.

また、抽出位置算出部104aによって算出された抽出画像の領域を示す枠を対象画像に重畳して表示部142に表示させる際に、上記画像色変更部104cによって変更される部分の対象画像の画像色を変更して表示させるようにしてもよい。さらに、付加情報として表示される時計やカレンダーの文字や画像を同時に対象画像上に重畳して表示させ、背景画像として表示させたときのイメージをユーザが確認できるようにしてもよい。   In addition, when the frame indicating the region of the extracted image calculated by the extraction position calculating unit 104a is superimposed on the target image and displayed on the display unit 142, the image of the target image of the portion changed by the image color changing unit 104c. The color may be changed and displayed. Furthermore, clocks and calendar characters and images displayed as additional information may be simultaneously superimposed on the target image and displayed so that the user can confirm the image when displayed as the background image.

(トリミング処理部104d)
トリミング処理部104dは、抽出位置算出部104aによって算出された抽出画像の大きさ及び位置に従って、対象となる撮影画像に対しトリミング処理を行うことによって背景画像として用いられる部分の画像を抽出する。抽出された画像は、補填画像生成部104bによって生成された補填画像と結合されてサイズ変更部104eに入力される。
(Trimming processing unit 104d)
The trimming processing unit 104d extracts a portion of an image used as a background image by performing trimming processing on the target captured image according to the size and position of the extracted image calculated by the extraction position calculating unit 104a. The extracted image is combined with the supplement image generated by the supplement image generation unit 104b and input to the size changing unit 104e.

(サイズ変更部104e)
サイズ変更部104eは、トリミング処理部104dによってトリミング処理され補填画像が結合された画像に対してサイズ変更処理を行うことにより、最終的な背景画像を生成する。サイズ変更部104eは、表示装置情報取得部101によって与えられた表示装置の表示可能画像サイズとトリミング処理部104dにより出力された画像のサイズとの比に基づいて、画像を縮小または拡大処理して出力する。
(Size changer 104e)
The size changing unit 104e generates a final background image by performing size changing processing on the image that is trimmed by the trimming processing unit 104d and combined with the supplementary image. The size changing unit 104e reduces or enlarges the image based on the ratio between the displayable image size of the display device given by the display device information acquiring unit 101 and the size of the image output by the trimming processing unit 104d. Output.

以上、デジタルスチルカメラ100における背景画像生成機能を実行するための構成にについて説明した。   The configuration for executing the background image generation function in the digital still camera 100 has been described above.

(背景画像生成処理の一例)
次に、図7及び8を参照して、本実施形態にかかるデジタルスチルカメラ100によって実行される背景画像生成処理の一例について説明する。図7及び8は、本実施形態にかかる背景画像生成処理の流れを示すフローチャートである。
(Example of background image generation processing)
Next, an example of background image generation processing executed by the digital still camera 100 according to the present embodiment will be described with reference to FIGS. 7 and 8 are flowcharts showing the flow of background image generation processing according to this embodiment.

まず、図7を参照すると、ステップS201で、ユーザからの入力に応じて背景画像の生成が開始される。背景画像の生成開始は、対象となる画像が撮影された直後であってもよく、あるいは、メモリカード143等の記憶媒体に格納された画像を呼び出してユーザが処理を指示した場合であってもよい。   First, referring to FIG. 7, in step S201, generation of a background image is started in response to an input from the user. The generation of the background image may be immediately after the target image is taken, or even when the user instructs the processing by calling an image stored in a storage medium such as the memory card 143. Good.

次いで、ステップS203で、表示装置情報取得部101は、操作入力部141からの入力等により、背景画像を表示させる外部機器の表示装置の表示能力に関する情報(表示可能な画像のサイズや画像フォーマット等)と、表示装置の背景画像上に表示されている時計やアイコン、カレンダー等の表示位置及び表示色等を取得する。取得された情報は、背景画像生成部104に入力される。次いで、ステップS205で、被写体サイズ取得部103は、同様にして被写体サイズを取得し、背景画像生成部104に入力する。   Next, in step S203, the display device information acquisition unit 101 receives information related to the display capability of the display device of the external device that displays the background image (such as the size of the displayable image and the image format) based on input from the operation input unit 141 or the like. And the display position and display color of the clock, icon, calendar, etc. displayed on the background image of the display device. The acquired information is input to the background image generation unit 104. In step S <b> 205, the subject size acquisition unit 103 acquires the subject size in the same manner and inputs the subject size to the background image generation unit 104.

次いで、ステップS207で、被写体認識部102は、対象画像に含まれる主要な被写体を認識する。主要被写体の認識は、顔画像の検出や、エッジ抽出等による物体検出によって行われてもよい。被写体認識部102は、認識した主要被写体を含む画像領域の大きさと対象画像中における位置とを求め、背景画像生成部104に入力する。   Next, in step S207, the subject recognition unit 102 recognizes a main subject included in the target image. The main subject may be recognized by detecting a face image or detecting an object by edge extraction or the like. The subject recognizing unit 102 obtains the size of the image area including the recognized main subject and the position in the target image, and inputs them to the background image generating unit 104.

次いで、ステップS209で、背景画像生成部104の抽出位置算出部104aは、表示装置情報取得部101によって取得された表示装置の表示可能画像サイズと、被写体認識部102によって認識された主要被写体の領域の大きさと、被写体サイズ取得部103によって取得された被写体サイズとに基づいて、撮影画像から背景画像として抽出される抽出画像のサイズを算出する。具体的な算出方法については、上述した通りである。   Next, in step S209, the extraction position calculation unit 104a of the background image generation unit 104 displays the displayable image size of the display device acquired by the display device information acquisition unit 101 and the main subject area recognized by the subject recognition unit 102. And the size of the extracted image extracted as the background image from the photographed image based on the size of the image and the subject size acquired by the subject size acquisition unit 103. The specific calculation method is as described above.

さらに、抽出位置算出部104aは、ステップS211で、ステップS209で算出された抽出画像のサイズと対象画像のサイズとを比較し、算出されたサイズの抽出画像を抽出可能であるかどうかを判断する。抽出画像サイズの方が対象画像サイズよりも大きい場合は、ステップS213に遷移し、対象画像の大きさに合わせて抽出画像サイズを補正する。   Further, in step S211, the extraction position calculation unit 104a compares the size of the extracted image calculated in step S209 with the size of the target image, and determines whether the extracted image having the calculated size can be extracted. . If the extracted image size is larger than the target image size, the process proceeds to step S213, and the extracted image size is corrected according to the size of the target image.

ステップS211またはS213の後、ステップS215で、抽出位置算出部104aは対象画像中における抽出画像の位置を決定する。このとき、抽出位置算出部104aは、表示装置情報取得部101から入力される付加情報表示情報に基づいて、主要被写体の中心が付加情報の表示位置と重ならないように抽出画像の位置を決定する。例えば、主要被写体の画像領域の中心が、付加情報の表示領域を除いた背景画像の領域の中心と重なるように抽出画像の位置を決定する。   After step S211 or S213, the extraction position calculation unit 104a determines the position of the extraction image in the target image in step S215. At this time, the extraction position calculation unit 104a determines the position of the extracted image based on the additional information display information input from the display device information acquisition unit 101 so that the center of the main subject does not overlap the display position of the additional information. . For example, the position of the extracted image is determined so that the center of the image area of the main subject overlaps the center of the background image area excluding the display area of the additional information.

次いで、ステップS217で、ステップS215で決定された位置において、ステップS211またはS213で算出された大きさの抽出画像を抽出可能であるかどうかを判定する。ここで、抽出画像として抽出されるべき画像の領域が、対象画像からはみ出してしまう場合(図5参照)、ステップS219に遷移し、補填画像生成部104bが不足部分の領域を補填するための補填画像を生成する。補填画像は、上述したように、例えば不足部分の領域との境界にあたる部分の対象画像の色情報を平均した色の画素によって構成される画像としてもよい。また、対象画像との境界に位置する所定量の領域を境界部分の色と上記の色とのグラデーションにより生成するようにしてもよい。   Next, in step S217, it is determined whether or not the extracted image having the size calculated in step S211 or S213 can be extracted at the position determined in step S215. Here, when the region of the image to be extracted as the extracted image protrudes from the target image (see FIG. 5), the process proceeds to step S219, and the supplemental image generation unit 104b performs compensation to compensate for the lacking region. Generate an image. As described above, the supplement image may be, for example, an image configured by pixels of colors obtained by averaging the color information of the target image corresponding to the boundary with the insufficient portion. Further, a predetermined amount of region located at the boundary with the target image may be generated by gradation between the color of the boundary portion and the above color.

次いで、図8を参照して、ステップS221で、画像色変更部104cは、付加情報が表示される部分の抽出画像の色と、時計やカレンダー等の付加情報の表示色(文字色または画像色)とを比較し、同系色あるいは同輝度であるかどうかを判断する。比較の結果、両者の色が近いと判断される場合、ステップS223に遷移して、付加情報が表示される部分の抽出画像の画像色を変更する。例えば、画像色変更部104cは、該当部分の抽出画像の画像色の輝度値を変更するようにしてもよい。また、画像色を変更した部分と変更していない部分との境界部分の色を両者の色のグラデーションになるように変更してもよい。   Next, referring to FIG. 8, in step S221, the image color changing unit 104c selects the color of the extracted image where the additional information is displayed and the display color (character color or image color) of the additional information such as a clock or calendar. ) To determine whether the color is the same color or the same brightness. As a result of the comparison, if it is determined that the colors are close to each other, the process proceeds to step S223, and the image color of the extracted image of the portion where the additional information is displayed is changed. For example, the image color changing unit 104c may change the luminance value of the image color of the extracted image of the corresponding part. Further, the color of the boundary portion between the portion where the image color is changed and the portion where the image color is not changed may be changed so as to be a gradation of both colors.

次いで、ステップS225で、抽出位置算出部104aで算出された抽出画像の領域を示す枠を対象画像に重畳して表示部142に表示させる。このとき、ステップS223の画像色変更部104cにより画像色を変更させた状態で対象画像を表示させるようにしてもよい。さらに、付加情報として表示される時計やカレンダー等の文字や画像を対象画像に重畳して表示させ、背景画像として表示させたときのイメージをユーザが確認できるようにしてもよい。また、ステップS219で生成された補填画像を同時に表示させるようにしてもよい。   Next, in step S225, a frame indicating the region of the extracted image calculated by the extraction position calculation unit 104a is superimposed on the target image and displayed on the display unit 142. At this time, the target image may be displayed with the image color changed by the image color changing unit 104c in step S223. Further, a character or an image such as a clock or calendar displayed as additional information may be superimposed on the target image and displayed so that the user can confirm the image when displayed as the background image. Moreover, you may make it display the compensation image produced | generated by step S219 simultaneously.

次いで、ステップS227において、抽出画像の領域を示す枠が表示されている間、背景画像生成部104は、操作入力部141から抽出画像の位置を変更するための入力を受け付けることができる。ここで、抽出画像の設定が確定されるように入力があった場合、ステップS231に遷移する。   Next, in step S227, the background image generation unit 104 can accept an input for changing the position of the extraction image from the operation input unit 141 while a frame indicating the region of the extraction image is displayed. If there is an input to confirm the setting of the extracted image, the process proceeds to step S231.

一方、ステップS227において、操作入力部141から抽出画像の位置変更の入力があった場合、ステップS229に遷移し、抽出位置算出部104aによって算出された抽出画像の位置が変更される。さらに、必要に応じて、補填画像生成部104b及び画像色変更部104cは、変更後の抽出画像位置に基づいて補填画像の生成及び画像色の変更を行う。上記ステップS227及びS229の処理は、ユーザが、ステップS225で表示された抽出画像の位置で確定するための入力を行うまで繰り返される。   On the other hand, in step S227, when there is an input for changing the position of the extracted image from the operation input unit 141, the process proceeds to step S229, and the position of the extracted image calculated by the extracted position calculating unit 104a is changed. Furthermore, as necessary, the compensation image generation unit 104b and the image color change unit 104c generate a compensation image and change the image color based on the extracted image position after the change. The processes in steps S227 and S229 are repeated until the user inputs to confirm the position of the extracted image displayed in step S225.

ステップS227で抽出画像の設定を確定するための入力を受け付けると、ステップS231に遷移し、確定された抽出画像の位置に基づいて背景画像が生成される。具体的には、元の対象画像に対し確定された抽出画像の位置に基づいてトリミング処理が行われる。さらに、ステップS233で、画像色変更部104cにより画像色が変更され、補填画像生成部104bによって補填画像が生成された場合には、トリミング処理後の画像と補填画像とが結合される。   When an input for confirming the setting of the extracted image is received in step S227, the process proceeds to step S231, and a background image is generated based on the confirmed position of the extracted image. Specifically, the trimming process is performed based on the position of the extracted image determined for the original target image. Further, in step S233, when the image color is changed by the image color changing unit 104c and the supplementary image is generated by the supplementary image generating unit 104b, the trimmed image and the supplemental image are combined.

その後、ステップS235で、サイズ変更部104eは、トリミング処理部104dによってトリミング処理され補填画像が結合された画像に対してサイズ変更処理を行うことにより、最終的な背景画像を生成する。生成された背景画像は、ステップS237で、メモリカード143等に格納されたり、あるいは、通信インタフェース138等を介して外部機器に送信される。   Thereafter, in step S235, the size changing unit 104e generates a final background image by performing size changing processing on the image that is trimmed by the trimming processing unit 104d and combined with the supplementary image. In step S237, the generated background image is stored in the memory card 143 or the like, or transmitted to an external device via the communication interface 138 or the like.

外部装置においては、このようにして生成された画像に対し、背景画像(壁紙、待ち受け画像)の設定を行うだけで、所望の画像を背景画像として利用することができる。このとき、背景画像上に表示される時計やカレンダー等の位置も考慮されているので、背景画像に含まれる主要な被写体がそれらの表示によって隠れてしまうといったことも避けられる。また、時計やカレンダー等の付加情報が表示されている位置の背景画像は、付加情報の表示色に合わせて見やすく調整されているため、背景画像に合わせて付加情報の表示色の設定を変更するという手間も省くことができる。   In an external device, a desired image can be used as a background image simply by setting a background image (wallpaper, standby image) for the image generated in this way. At this time, since the position of the clock or calendar displayed on the background image is also taken into consideration, it is possible to avoid the main subject included in the background image from being hidden by the display. Also, since the background image at the position where the additional information such as a clock or calendar is displayed is adjusted to be easy to see according to the display color of the additional information, the display color setting of the additional information is changed according to the background image. This can save you the trouble.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

本発明の一実施形態にかかるデジタルスチルカメラのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the digital still camera concerning one Embodiment of this invention. 同実施形態にかかるデジタルスチルカメラの背景画像生成機能を実現するための概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure for implement | achieving the background image generation function of the digital still camera concerning the embodiment. 抽出画像の位置補正処理の一例を示す図である。It is a figure which shows an example of the position correction process of an extracted image. 抽出画像の位置補正処理の一例を示す図である。It is a figure which shows an example of the position correction process of an extracted image. 補填画像の生成処理の一例を示す図である。It is a figure which shows an example of the production | generation process of a compensation image. 付加情報の背景となる画像の画像色変更処理の一例を示す図である。It is a figure which shows an example of the image color change process of the image used as the background of additional information. 本発明の一実施形態にかかるデジタルスチルカメラによって実行される背景画像生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the background image generation process performed by the digital still camera concerning one Embodiment of this invention. 本発明の一実施形態にかかるデジタルスチルカメラによって実行される背景画像生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the background image generation process performed by the digital still camera concerning one Embodiment of this invention.

符号の説明Explanation of symbols

100 デジタルスチルカメラ
101 表示装置情報取得部
102 被写体認識部
103 被写体サイズ取得部
104 背景画像生成部
104a 抽出位置算出部
104b 補填画像生成部
104c 画像色変更部
104d トリミング処理部
104e サイズ変更部
110 撮像処理部
111 光学ブロック
112 駆動部
113 撮像素子
114 アナログ処理回路
120 画像処理部
130 制御部
131 MPU
132 システムバス
133 ROM
134 RAM
135 操作入力インタフェース
136 表示制御部
137 メモリカードインタフェース
138 通信インタフェース
139 外部入出力インタフェース
141 操作入力部
142 表示部
143 メモリカード
DESCRIPTION OF SYMBOLS 100 Digital still camera 101 Display apparatus information acquisition part 102 Subject recognition part 103 Subject size acquisition part 104 Background image generation part 104a Extraction position calculation part 104b Complementary image generation part 104c Image color change part 104d Trimming process part 104e Size change part 110 Imaging process Unit 111 Optical block 112 Drive unit 113 Image sensor 114 Analog processing circuit 120 Image processing unit 130 Control unit 131 MPU
132 System bus 133 ROM
134 RAM
135 Operation Input Interface 136 Display Control Unit 137 Memory Card Interface 138 Communication Interface 139 External Input / Output Interface 141 Operation Input Unit 142 Display Unit 143 Memory Card

Claims (9)

撮影された撮影画像から、他の外部装置に備えられた表示装置に背景表示させるための背景画像を生成する撮像装置であって、
前記表示装置の表示能力に関する表示装置情報と、前記表示装置の背景画像上に表示される文字または画像を含む付加情報に関する付加情報表示情報とを取得する表示装置情報取得部と、
前記撮影画像に含まれる被写体を認識する被写体認識部と、
前記背景画像に対する前記被写体の大きさを示す情報を取得する被写体サイズ取得部と、
前記撮影画像の全部または一部を抽出し、抽出された抽出画像から前記背景画像を生成する背景画像生成部と、
を備え、
前記背景画像生成部は、
前記表示装置情報取得部、前記被写体認識部及び前記被写体サイズ取得部から出力される情報に基づいて、前記抽出画像の大きさ及び位置を算出する抽出位置算出部を含むことを特徴とする、撮像装置。
An imaging device that generates a background image for displaying a background on a display device provided in another external device from a captured image,
A display device information acquisition unit that acquires display device information related to the display capability of the display device and additional information display information related to additional information including characters or images displayed on a background image of the display device;
A subject recognition unit for recognizing a subject included in the captured image;
A subject size acquisition unit that acquires information indicating the size of the subject with respect to the background image;
A background image generation unit that extracts all or part of the captured image and generates the background image from the extracted image;
With
The background image generation unit
The image pickup apparatus includes an extraction position calculation unit that calculates a size and a position of the extracted image based on information output from the display device information acquisition unit, the subject recognition unit, and the subject size acquisition unit. apparatus.
前記抽出位置算出部によって算出された前記抽出画像の位置を前記撮影画像に重畳して表示する表示部と、
前記表示部に前記抽出画像の位置が表示されている間に、前記抽出画像の位置が変更されるように入力を行うための入力部と、
をさらに備え、
前記背景画像生成部は、前記入力部からの入力によって変更された前記抽出画像の位置に基づいて前記撮影画像から前記抽出画像を抽出し、前記抽出画像を用いて前記背景画像を生成することを特徴とする、請求項1に記載の撮像装置。
A display unit that superimposes and displays the position of the extracted image calculated by the extraction position calculation unit on the captured image;
An input unit for performing input so that the position of the extracted image is changed while the position of the extracted image is displayed on the display unit;
Further comprising
The background image generating unit extracts the extracted image from the photographed image based on the position of the extracted image changed by the input from the input unit, and generates the background image using the extracted image. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
前記付加情報表示情報は、前記付加情報の前記表示装置上の表示位置及び表示色についての情報を含み、
前記背景画像生成部は、
前記付加情報の前記表示装置上の表示位置に基づいて、前記抽出画像を前記背景画像として用いたときの前記付加情報の表示位置を算出し、該表示位置における前記抽出画像の色と前記付加情報の表示色とが類似している場合、前記表示位置における前記抽出画像の画像色を変更する画像色変更部をさらに含むことを特徴とする、請求項1または2に記載の撮像装置。
The additional information display information includes information about a display position and a display color of the additional information on the display device,
The background image generation unit
Based on the display position of the additional information on the display device, the display position of the additional information when the extracted image is used as the background image is calculated, and the color of the extracted image at the display position and the additional information The imaging apparatus according to claim 1, further comprising: an image color changing unit that changes an image color of the extracted image at the display position when the display color is similar.
前記画像色変更部は、前記表示位置における前記抽出画像の輝度値を変更することを特徴とする、請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the image color changing unit changes a luminance value of the extracted image at the display position. 前記表示部に前記抽出画像の位置が表示されるときに、前記画像色変更部によって変更された抽出画像の色を変更して表示させることを特徴とする、請求項3または4のいずれかに記載の撮像装置。   5. The display according to claim 3, wherein when the position of the extracted image is displayed on the display unit, the color of the extracted image changed by the image color changing unit is changed and displayed. The imaging device described. 前記背景画像生成部は、
前記抽出位置算出部によって算出された抽出画像の位置により決定される抽出画像の領域において前記撮影画像の領域外となる部分がある場合に、前記撮影画像の領域外となる部分の抽出画像を補填するための補填画像を生成する補填画像生成部をさらに含むことを特徴とする、請求項1〜5のいずれかに記載の撮像装置。
The background image generation unit
If there is a part outside the area of the photographed image in the area of the extracted image determined by the position of the extracted image calculated by the extraction position calculation unit, the extracted image of the part outside the area of the photographed image is compensated The imaging apparatus according to claim 1, further comprising a supplementary image generation unit that generates a supplementary image to be performed.
前記補填画像生成部は、
前記背景画像の領域外となる部分との境界に位置する前記抽出画像の画素の色に基づいて、前記補填画像を生成することを特徴とする、請求項6に記載の撮像装置。
The supplementary image generation unit
The imaging apparatus according to claim 6, wherein the supplementary image is generated based on a color of a pixel of the extracted image located at a boundary with a portion outside the region of the background image.
前記表示部に前記抽出画像の位置が表示されるときに、前記補填画像生成部によって生成された補填画像を同時に表示させることを特徴とする、請求項6または7のいずれかに記載の撮像装置。   The imaging apparatus according to claim 6, wherein when the position of the extracted image is displayed on the display unit, the supplementary image generated by the supplemental image generation unit is displayed simultaneously. . 撮像装置によって撮影された撮影画像から、他の外部装置に備えられた表示装置に背景表示させるための背景画像を生成する背景画像生成方法であって、
前記表示装置の表示能力に関する表示装置情報と、前記表示装置の背景画像上に表示される文字または画像を含む付加情報に関する付加情報表示情報とを取得する表示装置情報取得ステップと、
前記撮影画像に含まれる被写体を認識する被写体認識ステップと、
前記背景画像に対する前記被写体の大きさを示す情報を取得する被写体サイズ取得ステップと、
前記撮影画像の全部または一部を抽出し、抽出された抽出画像から前記背景画像を生成する背景画像生成ステップと、
を含み、
前記背景画像生成ステップは、
前記表示装置情報取得部、前記被写体認識部及び前記被写体サイズ取得部から出力される情報に基づいて、前記抽出画像の大きさ及び位置を算出する抽出位置算出ステップを含むことを特徴とする、背景画像生成方法。
A background image generation method for generating a background image for displaying a background on a display device provided in another external device from a captured image captured by an imaging device,
A display device information acquisition step for acquiring display device information relating to the display capability of the display device and additional information display information relating to additional information including characters or images displayed on a background image of the display device;
A subject recognition step for recognizing a subject included in the captured image;
A subject size acquisition step of acquiring information indicating a size of the subject with respect to the background image;
A background image generation step of extracting all or part of the captured image and generating the background image from the extracted image;
Including
The background image generation step includes
An extraction position calculation step of calculating a size and a position of the extracted image based on information output from the display device information acquisition unit, the subject recognition unit, and the subject size acquisition unit; Image generation method.
JP2007335731A 2007-12-27 2007-12-27 Imaging apparatus and background image generation method Expired - Fee Related JP5014110B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007335731A JP5014110B2 (en) 2007-12-27 2007-12-27 Imaging apparatus and background image generation method
KR1020080052230A KR101427662B1 (en) 2007-12-27 2008-06-03 Photographing apparatus and method of making background image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007335731A JP5014110B2 (en) 2007-12-27 2007-12-27 Imaging apparatus and background image generation method

Publications (2)

Publication Number Publication Date
JP2009159358A JP2009159358A (en) 2009-07-16
JP5014110B2 true JP5014110B2 (en) 2012-08-29

Family

ID=40962858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007335731A Expired - Fee Related JP5014110B2 (en) 2007-12-27 2007-12-27 Imaging apparatus and background image generation method

Country Status (2)

Country Link
JP (1) JP5014110B2 (en)
KR (1) KR101427662B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114690984B (en) * 2020-12-30 2024-04-30 华为技术有限公司 Off-screen display method and electronic equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3925051B2 (en) * 2000-07-17 2007-06-06 カシオ計算機株式会社 Digital camera, image display device and image transmission / reception system
JP2004040601A (en) 2002-07-05 2004-02-05 Fuji Photo Film Co Ltd Digital camera
JP2004172655A (en) * 2002-11-15 2004-06-17 Fuji Photo Film Co Ltd Image processing apparatus and electronic camera

Also Published As

Publication number Publication date
KR20090071323A (en) 2009-07-01
JP2009159358A (en) 2009-07-16
KR101427662B1 (en) 2014-08-07

Similar Documents

Publication Publication Date Title
JP4904243B2 (en) Imaging apparatus and imaging control method
JP4711987B2 (en) Imaging apparatus and automatic exposure control method
JP4487872B2 (en) Image processing apparatus and method, program, and recording medium
JP2008022240A (en) Photographing device, image processor, image file generating method, image processing method, and image processing program
JP2008236534A (en) Digital camera, and information display method and information display control program
KR20130071793A (en) Digital photographing apparatus splay apparatus and control method thereof
JP2009089084A (en) Image processing apparatus, imaging apparatus, and image processing method
KR20120115119A (en) Image processing device for generating composite image having predetermined aspect ratio
JP2009010616A (en) Imaging device and image output control method
JP2007199311A (en) Image display device and imaging apparatus
JP5720913B2 (en) Image generating apparatus and method, and imaging apparatus
JP2009218704A (en) Image processing apparatus and image processing method
JP2017143354A (en) Image processing apparatus and image processing method
US20110102632A1 (en) Image pick-up apparatus, white balance setting method and recording medium
KR101613617B1 (en) Apparatus and method for digital picturing image
JP5014110B2 (en) Imaging apparatus and background image generation method
US20120075495A1 (en) Electronic camera
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2010103672A (en) Imaging device
JP2011029879A (en) Imaging apparatus and imaging method
JP2014132771A (en) Image processing apparatus and method, and program
JP6225463B2 (en) Imaging apparatus, imaging method, and recording medium
JP4781670B2 (en) Imaging device
JP2009276610A (en) Device and method for displaying image, and image-pickup device
JP2009089083A (en) Age estimation photographing device and age estimation photographing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20090811

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120605

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5014110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees