JP5517192B2 - Electronic device, image processing method and program - Google Patents

Electronic device, image processing method and program Download PDF

Info

Publication number
JP5517192B2
JP5517192B2 JP2009227441A JP2009227441A JP5517192B2 JP 5517192 B2 JP5517192 B2 JP 5517192B2 JP 2009227441 A JP2009227441 A JP 2009227441A JP 2009227441 A JP2009227441 A JP 2009227441A JP 5517192 B2 JP5517192 B2 JP 5517192B2
Authority
JP
Japan
Prior art keywords
subject
image
imaging
captured image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009227441A
Other languages
Japanese (ja)
Other versions
JP2011077836A (en
Inventor
祐一 佐合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2009227441A priority Critical patent/JP5517192B2/en
Publication of JP2011077836A publication Critical patent/JP2011077836A/en
Application granted granted Critical
Publication of JP5517192B2 publication Critical patent/JP5517192B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影機能を有する電子機器、撮像された画像データを処理する画像処理方法および画像処理のためのプログラムに関する。   The present invention relates to an electronic device having a photographing function, an image processing method for processing captured image data, and a program for image processing.

従来、静止画を撮影する電子撮像装置(デジタルカメラ)を用いて撮影した画像を処理ないしは加工する技術が種々存在する。例えばデジタルカメラを用いて背景内に被写体が存在する画像を撮影し、その後に背景内に被写体が存在しない背景画像を撮影して、背景画像と被写体が存在する画像から差分情報を生成し、被写体のみを切り抜くようにした画像処理技術に関する発明もその一つである(例えば、特許文献1)。   Conventionally, there are various techniques for processing or processing an image captured using an electronic imaging device (digital camera) that captures a still image. For example, a digital camera is used to capture an image with a subject in the background, and then a background image with no subject in the background is captured to generate difference information from the background image and the image with the subject. One of them is an invention related to an image processing technique in which only the image is cut out (for example, Patent Document 1).

特開平10−21408号公報Japanese Patent Laid-Open No. 10-21408

前記特許文献1に開示されている技術を適用したデジタルカメラにあっては、撮影の主対象である物や人物等の被写体を背景画像から切り抜くには、被写体が入った画像を撮影した後、カメラを動かさないようにしたまま被写体を移動させて被写体が存在しない画像を撮影するという操作が必要である。しかし、コントラストの点で背景画像が不適切であったり1回目に撮影した画像に逆光による不鮮明などがあったりすると、被写体の切り抜きが失敗に終わることがあり、ユーザは再度1回目の撮影からやり直さなければならないため面倒であるという課題がある。   In a digital camera to which the technology disclosed in Patent Document 1 is applied, in order to cut out a subject such as an object or a person who is a main subject of photographing from a background image, after photographing the image containing the subject, It is necessary to perform an operation of moving the subject without taking the camera to shoot an image without the subject. However, if the background image is inappropriate in terms of contrast or if the first photographed image is unclear due to backlighting, cropping of the subject may fail, and the user will have to start over from the first photographing again. There is a problem that it is troublesome because it must be done.

この発明の目的は、被写体の切り抜き画像を1回のトライで確実に得ることができる電子機器、画像処理方法およびプログラムを提供することにある。   An object of the present invention is to provide an electronic device, an image processing method, and a program capable of reliably obtaining a clipped image of a subject in one try.

上記目的を達成するため請求項1に記載の発明は、
撮像手段と、
前記撮像手段からの撮像信号に基づいた画像を表示可能な表示手段と、
前記撮像手段による撮像範囲内においていずれかの被写体を指定可能な被写体指定手段と、
前記撮像手段による1回目の撮像の際に、前記被写体指定手段により指定された被写体の輪郭を認識する被写体認識手段と、
前記被写体認識手段により認識された輪郭を前記表示手段に表示させる表示制御手段と、
前記撮像手段による1回目の撮像画像と2回目の撮像画像とに基づいて、前記被写体指定手段により指定された被写体の画像を抽出する被写体抽出手段と、
前記撮像手段による撮像範囲内において移動した被写体を判別可能な被写体判別手段と、
を備え、
前記被写体判別手段は、
前記2回目の撮像画像中の特徴点を抽出する特徴量演算部と、
前記特徴点が前記1回目の撮像画像内のどこに対応するかを探索することにより、前記1回目の撮像画像と前記2回目の撮像画像とを位置合わせし、位置合わせした前記1回目の撮像画像と前記2回目の撮像画像との差分から、移動した被写体を判別するブロックマッチング部と、を有し、
前記被写体指定手段は、前記被写体判別手段により移動したと判別された被写体を指定する
ことを特徴としている。
In order to achieve the above object, the invention described in claim 1
Imaging means;
Display means capable of displaying an image based on an imaging signal from the imaging means;
Subject specifying means capable of specifying any subject within the imaging range of the imaging means;
Subject recognition means for recognizing the contour of the subject designated by the subject designation means during the first imaging by the imaging means;
Display control means for displaying on the display means the contour recognized by the subject recognition means;
Subject extracting means for extracting an image of the subject specified by the subject specifying means based on the first captured image and the second captured image by the imaging means;
Subject discriminating means capable of discriminating a subject moved within an imaging range by the imaging means;
With
The subject discrimination means
A feature amount computing unit for extracting feature points in the second captured image;
By searching whether the feature point corresponding to where in said first captured image, before Symbol first aligning the captured image and the previous SL second captured image, aligned with the previous SL first from the difference between the captured image and the previous SL second captured image, anda block matching unit that determines the moved object,
The subject designating unit designates the subject determined to have moved by the subject determining unit ;
It is characterized by that.

請求項に記載の発明は、請求項に記載の発明において、
前記1回目の撮像による画像は動画像であることを特徴としている。
The invention according to claim 2 is the invention according to claim 1 ,
The image obtained by the first imaging is a moving image.

請求項に記載の発明は、請求項1または2に記載の発明において、
前記被写体抽出手段により抽出された被写体画像と選択された背景画像とを合成した合成画像を生成する画像合成手段をさらに備えることを特徴としている。
The invention according to claim 3 is the invention according to claim 1 or 2 ,
The image processing apparatus further includes image combining means for generating a composite image by combining the subject image extracted by the subject extraction means and the selected background image.

請求項4に記載の発明は、
撮像手段と表示手段を備える電子機器における画像処理方法であって、
前記撮像手段による撮像範囲内においていずれかの被写体を指定する被写体指定ステップと、
前記撮像手段による1回目の撮像の際に、前記被写体指定ステップにより指定された被写体の輪郭を認識する被写体認識ステップと、
前記被写体認識ステップにより認識された輪郭を前記表示手段に表示させる被写体輪郭表示ステップと、
前記撮像手段による1回目の撮像画像と2回目の撮像画像とに基づいて、前記被写体指定ステップにより指定された被写体の画像を抽出する被写体抽出ステップと、
前記撮像手段による撮像範囲内において移動した被写体を判別可能な被写体判別ステップと、
を含み、
前記被写体判別ステップでは、前記2回目の撮像画像中の特徴点を抽出し、抽出した特徴点が前記1回目の撮像画像内のどこに対応するかを探索することにより、前記1回目の撮像画像と前記2回目の撮像画像とを位置合わせし、位置合わせした前記1回目の撮像画像と前記2回目の撮像画像との差分から、移動した被写体を判別し、
前記被写体指定ステップでは、前記被写体判別ステップで移動したと判別された被写体を指定する、
ことを特徴としている。
The invention according to claim 4
An image processing method in an electronic device including an imaging unit and a display unit,
A subject designation step for designating any subject within an imaging range of the imaging means;
A subject recognition step of recognizing the contour of the subject designated by the subject designation step during the first imaging by the imaging means;
A subject contour display step for causing the display means to display the contour recognized by the subject recognition step;
A subject extraction step of extracting an image of the subject designated by the subject designation step based on a first captured image and a second captured image by the imaging means;
A subject discrimination step capable of discriminating a subject moved within an imaging range by the imaging means;
Including
Wherein the object determination step, the feature points are extracted in the second captured image, by extracting feature points is searched whether corresponding to where in said first captured image, before Symbol first captured image When the front Symbol to align the second captured image, from the difference between the aligned the previous SL first captured image and the previous SL second captured image, to determine the moved object,
In the subject specifying step, the subject determined to have moved in the subject determining step is specified.
It is characterized by that.

請求項5に記載の発明は、
撮像手段と表示手段とを制御するマイクロプロセッサを、
前記撮像手段による撮像範囲内においていずれかの被写体を入力手段からの信号に基づいて指定可能な被写体指定手段、
前記撮像手段による1回目の撮像の際に、前記被写体指定手段により指定された被写体の輪郭を認識する被写体認識手段、
前記被写体認識手段により認識された輪郭を前記表示手段に表示させる表示制御手段、
前記撮像手段による1回目の撮像画像と2回目の撮像画像とに基づいて、前記被写体指定手段により指定された被写体の画像を抽出する被写体抽出手段、
前記撮像手段による撮像範囲内において移動した被写体を判別可能な被写体判別手段、
として機能させ、さらに、
前記被写体判別手段として、前記2回目の撮像画像から特徴点を抽出させ、抽出した前記特徴点が前記1回目の撮像画像内のどこに対応するかを探索することにより、前記1回目の撮像画像と前記2回目の撮像画像とを位置合わせし、位置合わせした前記1回目の撮像画像と前記2回目の撮像画像との差分から、移動した被写体を判別させ、
前記被写体指定手段として、前記被写体判別手段により移動したと判別された被写体を指定させる
ことを特徴としている。
The invention described in claim 5
A microprocessor that controls the imaging means and the display means;
Subject designation means capable of designating any subject within the imaging range of the imaging means based on a signal from the input means;
Subject recognition means for recognizing the contour of the subject designated by the subject designation means during the first imaging by the imaging means;
Display control means for displaying the contour recognized by the subject recognition means on the display means;
Subject extracting means for extracting an image of the subject specified by the subject specifying means based on the first captured image and the second captured image by the imaging means;
Subject discrimination means capable of discriminating a subject moved within an imaging range by the imaging means;
Function as
As the object discriminating means, wherein to extract a second feature point from the captured image of, by the extracted the feature point is searched where to corresponding said first captured image, before Symbol first captured image When the front Symbol to align the second captured image, from the difference between the aligned the previous SL first captured image and the previous SL second captured image, to determine the moved object,
As the subject specifying means, the subject determined to have been moved by the subject determining means is specified ,
It is characterized by that.

本発明によれば、撮影機能および切り抜き画像を生成する機能を有する電子機器において、被写体の切り抜きが成功するか否かをユーザが予測することが可能となり、それによって1回のトライで被写体の切り抜き画像を確実に得ることができるという効果がある。   According to the present invention, in an electronic device having a photographing function and a function of generating a cut-out image, it is possible for a user to predict whether or not a subject will be cut out successfully, thereby cutting out the subject in one try. There is an effect that an image can be obtained reliably.

本発明を適用した電子機器の一例としての携帯電話機の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the mobile telephone as an example of the electronic device to which this invention is applied. 実施形態の携帯電話機の制御部に設けられるフラグの構成例を示す説明図である。It is explanatory drawing which shows the structural example of the flag provided in the control part of the mobile telephone of embodiment. 撮像手段により撮影された画像および切り抜かれた画像の一例を示す画像説明図である。It is image explanatory drawing which shows an example of the image image | photographed by the imaging means, and the image cut out. 図1の携帯電話機の撮像部および画像認識部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging part and image recognition part of the mobile telephone of FIG. 本発明を適用した実施形態の携帯電話機において行う画像処理のための制御の前半部分を示すフローチャートである。It is a flowchart which shows the first half part of the control for the image processing performed in the mobile telephone of embodiment to which this invention is applied. 本発明を適用した実施形態の携帯電話機において行う画像処理のための制御の後半部分を示すフローチャートである。It is a flowchart which shows the second half part of the control for the image processing performed in the mobile telephone of embodiment to which this invention is applied. 図5のフローチャート内の抽出被写体指定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the extraction subject designation | designated process in the flowchart of FIG.

以下、本発明の好適な実施の形態を図面に基づいて説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.

図1は、本発明を適用した撮像機能を有する電子機器の一例としての携帯電話機の一実施形態のブロック図を示す。   FIG. 1 is a block diagram of an embodiment of a mobile phone as an example of an electronic apparatus having an imaging function to which the present invention is applied.

図1に示すように、本実施形態の携帯電話機10は、プログラムに従って機器全体を制御するとともに画像処理を行うCPU(マイクロプロセッサ)、CPU(11)が実行するプログラムや固定データを記憶する読み出し専用のROM(リードオンリメモリ)、CPU(11)の作業領域やデータの一時的な記憶領域を提供する随時書き込み読み出し可能なRAM(ランダムアクセスメモリ)などからなる制御部11と、テンキーやファンクションキーなどからなる操作部12と、液晶パネル131および入力のためのタッチパネル132を備えたタッチパネル式の表示部13と、機器内部の電子部品に直流電源電圧を供給する電源部14を備える。   As shown in FIG. 1, the mobile phone 10 of this embodiment controls a whole device according to a program and performs a CPU (microprocessor) that performs image processing, and a read-only memory that stores a program executed by the CPU (11) and fixed data. ROM (read-only memory), CPU (11) working area, and control unit 11 including RAM (random access memory) that can be written and read at any time to provide a temporary data storage area, numeric keys, function keys, etc. A touch panel type display unit 13 having a liquid crystal panel 131 and a touch panel 132 for input, and a power source unit 14 for supplying a DC power source voltage to electronic components inside the device.

また、携帯電話機10は、スピーカ121を駆動したりマイクロフォン122からの音声信号を増幅してデジタル信号に変換したりする電話部15と、フィルタやパワーアンプなどを備え送受信信号の変復調処理や無線通信で基地局との間の音声やデータの通信を行う通信部16と、アドレス帳のデータや撮影した画像などを記憶する書込み可能な不揮発性メモリなどからなる記憶部17と、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサやレンズなどの光学系を有する撮像部18と、撮像部18により撮影された画像データを処理する画像認識部19等を備え、これらがシステムバス20を介して互いに接続されている。   In addition, the mobile phone 10 includes a telephone unit 15 that drives a speaker 121 or amplifies an audio signal from the microphone 122 and converts it into a digital signal, a filter, a power amplifier, and the like. A communication unit 16 for performing voice and data communication with the base station, a storage unit 17 including a writable nonvolatile memory for storing address book data, captured images, and the like, and a CCD (Charge Coupled Device) ) And CMOS (Complementary Metal-Oxide Semiconductor) and other image sensors and optical systems such as lenses, and an image recognition unit 19 that processes image data captured by the image capture unit 18. They are connected to each other via a bus 20.

図4には、撮像部18と、撮像部18により撮影された画像データを処理する画像認識部19の概略構成が示されている。
撮像部18は、複数のズームレンズやフォーカスレンズやレンズを光軸方向に移動させるレンズ駆動部からなるレンズ部181と、光電変換用のイメージセンサと該センサを走査駆動する駆動回路やタイミング発生回路などからなる電子撮像部182と、レンズ駆動部やイメージセンサを制御して画像信号を読み出す撮像制御部183とからなる。なお、撮像制御部183は、AE(自動露出処理)、AF(自動合焦処理)、AWB(自動ホワイトバランス)等の撮像条件の調整制御も行う。
FIG. 4 shows a schematic configuration of an imaging unit 18 and an image recognition unit 19 that processes image data captured by the imaging unit 18.
The imaging unit 18 includes a lens unit 181 including a plurality of zoom lenses, a focus lens, and a lens driving unit that moves the lens in the optical axis direction, an image sensor for photoelectric conversion, a driving circuit that scans the sensor, and a timing generation circuit. And an imaging control unit 183 that controls the lens driving unit and the image sensor to read out an image signal. The imaging control unit 183 also performs adjustment control of imaging conditions such as AE (automatic exposure processing), AF (automatic focusing processing), and AWB (automatic white balance).

画像認識部19は、電子撮像部182から出力された画像信号から1画面分ずつ画像フレームを生成する画像データ生成部191と、画像データ生成部191により生成された画像フレームを記憶する画像メモリ192と、特徴量演算部193、ブロックマッチング部194、画像処理部195、記録制御部196、タッチパネル式の表示部13の液晶パネル131を駆動制御する表示制御部197、表示部13のタッチパネル132からの入力を検出する入力検出部198などを備えている。図4には、前記入力操作部12を構成する各種入力キーのうち、シャッタボタン121と選択決定ボタン122が示されている。   The image recognition unit 19 includes an image data generation unit 191 that generates image frames for each screen from the image signal output from the electronic imaging unit 182, and an image memory 192 that stores the image frames generated by the image data generation unit 191. From the feature amount calculation unit 193, the block matching unit 194, the image processing unit 195, the recording control unit 196, the display control unit 197 for driving and controlling the liquid crystal panel 131 of the touch panel type display unit 13, and the touch panel 132 of the display unit 13 An input detection unit 198 for detecting an input is provided. FIG. 4 shows a shutter button 121 and a selection determination button 122 among various input keys constituting the input operation unit 12.

上記画像データ生成部191は、電子撮像部182から出力されたアナログ値の画像信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号データCb,Cr(YUVデータ)を生成する。   The image data generation unit 191 appropriately adjusts the gain for each of the RGB color components with respect to the analog value image signal output from the electronic imaging unit 182, and then performs sample holding by a sample hold circuit (not shown) to perform A / The digital signal is converted into digital data by a D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then the luminance signal Y and color difference signal data Cb of digital values are processed. , Cr (YUV data).

生成された輝度信号Y及び色差信号データCb,Crは、図示しないDMAコントローラによって、バッファメモリとして使用される画像メモリ192へDMA転送される。画像メモリ192は、例えばDRAM等により構成され、特徴量演算部193と、ブロックマッチング部194と、画像処理部195と、制御部(CPU)11等によって処理されるデータ等を一時記憶する。特徴量演算部193は、背景画像を基準として、当該背景画像から特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部193は、例えば、背景画像のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。   The generated luminance signal Y and color difference signal data Cb and Cr are DMA-transferred to an image memory 192 used as a buffer memory by a DMA controller (not shown). The image memory 192 is configured by, for example, a DRAM or the like, and temporarily stores data processed by the feature amount calculation unit 193, the block matching unit 194, the image processing unit 195, the control unit (CPU) 11, and the like. The feature amount calculation unit 193 performs feature extraction processing for extracting feature points from the background image with reference to the background image. Specifically, the feature amount calculation unit 193 selects, for example, a predetermined number (or a predetermined number or more) of high feature block areas (feature points) based on the YUV data of the background image, The contents are extracted as a template (for example, a square of 16 × 16 pixels). Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.

ブロックマッチング部194は、被写体切り抜き画像を生成する際に、図3(a)のような目的とする被写体Bが存在する画像f1と図3(c)のような被写体Bが同じ位置に存在しない画像(以下、背景画像と称する)f3との位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部194は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像f1内のどこに対応するか、つまり、被写体存在画像f1内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。   When the block matching unit 194 generates the subject cutout image, the image f1 in which the target subject B as shown in FIG. 3A exists and the subject B as shown in FIG. 3C do not exist at the same position. Block matching processing for alignment with an image (hereinafter referred to as a background image) f3 is performed. Specifically, the block matching unit 194 corresponds to where in the subject existing image f1 the template extracted in the feature extraction process corresponds, that is, the template pixel value optimally matches in the subject existing image f1. Search for a position (corresponding region).

画像処理部195は、画像メモリ192に記憶された複数の画像フレーム(動画像を含む)に基づいて、背景内に被写体Bが存在するか否かを判定する判定機能を具備している。また、画像処理部195は、画像メモリ192に記憶された画像フレームの中から被写体Bが存在する画像f1(図3(a))と被写体Bが同じ位置に存在しない背景画像f3(図3(c))とに基づいて、ブロックマッチング部194により抽出されたテンプレートを用いて位置合わせを行い、背景画像f3と被写体存在画像f1との間で対応する各画素の差分情報に基づいて、被写体存在画像f1から被写体Bを切り抜いた画像f4(図3(d))を生成する機能を有する。画像制御部196は、上記のようにして生成された切り抜き画像f4を記録部17に記憶する。   The image processing unit 195 has a determination function for determining whether or not the subject B exists in the background based on a plurality of image frames (including moving images) stored in the image memory 192. The image processing unit 195 also includes an image f1 (FIG. 3A) in which the subject B exists from the image frames stored in the image memory 192 and a background image f3 in which the subject B does not exist at the same position (FIG. c)) based on the difference information of each corresponding pixel between the background image f3 and the subject presence image f1 is aligned using the template extracted by the block matching unit 194 It has a function of generating an image f4 (FIG. 3D) obtained by cutting out the subject B from the image f1. The image control unit 196 stores the clipped image f4 generated as described above in the recording unit 17.

表示制御部197は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備え、画像メモリ192に一時的に記憶されている表示用画像データを読み出して表示部13に表示させる制御を行う。具体的には、デジタルビデオエンコーダは、画像メモリ192から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部13に出力する。表示部13は、表示制御部197から供給されるビデオ信号に基づいて、ライブビュー画像や撮像された画像、切り抜き画像など加工された画像を液晶パネル131の表示画面に表示する。入力検出部198は、タッチパネル132からの入力を検出して制御部(CPU)11へ対応する信号を入力する。   The display control unit 197 includes a VRAM, a VRAM controller, a digital video encoder, and the like, and performs control to read display image data temporarily stored in the image memory 192 and display the display image data on the display unit 13. Specifically, the digital video encoder periodically reads the luminance signal Y and the color difference signals Cb and Cr read from the image memory 192 and stored in the VRAM (not shown) from the VRAM via the VRAM controller. Based on these data, a video signal is generated and output to the display unit 13. Based on the video signal supplied from the display control unit 197, the display unit 13 displays a processed image such as a live view image, a captured image, or a cutout image on the display screen of the liquid crystal panel 131. The input detection unit 198 detects an input from the touch panel 132 and inputs a corresponding signal to the control unit (CPU) 11.

本実施形態においては、画像認識部19が、撮像部18から撮像信号により液晶パネル131の画面にプレビュー表示されている図3(a)のような画像フレームf1で切り抜きをしたい被写体をタッチして指定すると、指定された被写体がその後の処理で切り抜き可能なものであれば、図3(b)の画像f2のようにその輪郭を正しく表示する。そこで、ユーザはその画像を確認してから1回目の撮影操作を行い、その後の被写体が撮影範囲から移動した状態で2回目の撮影を行うと、画像認識部19が、1回目と2回目に撮像された画像f1とf3(図3(a)と(c)参照)から画像間で対応する各画素の差分情報に基づいて、被写体存在画像f1から被写体画像Bを抽出して切り抜き画像f4(図3(d)参照)を生成できるようにするものである。   In the present embodiment, the image recognizing unit 19 touches a subject to be cut out in an image frame f1 as shown in FIG. 3A displayed on the screen of the liquid crystal panel 131 by the image pickup signal from the image pickup unit 18. If designated, if the designated subject can be cut out in the subsequent processing, the contour is correctly displayed as in the image f2 in FIG. Therefore, if the user performs the first shooting operation after confirming the image, and then performs the second shooting with the subject moved from the shooting range, the image recognition unit 19 performs the first and second shooting. A subject image B is extracted from the subject existing image f1 based on the difference information of the corresponding pixels between images from the captured images f1 and f3 (see FIGS. 3A and 3C), and a cutout image f4 ( FIG. 3D) can be generated.

次に、本発明を適用した撮像機能を有する携帯電話機の第1の実施形態における画像処理のための制御手順について、図5から図7のフローチャートを用いて説明する。
図5に示すように、制御部(CPU)11は、電源が投入されると初期設定で先ず指定フラグを「0」にクリアする(ステップS1)。指定フラグは、図2に示すように、「0」は抽出対象の被写体が指定されていない状態を表し、「1」は抽出対象の被写体が指定されている状態を表す。その後、携帯電話機の通常状態である待ち受け状態に移行する(ステップS2)。そして、着信があるか否かを判定する(ステップS3)。着信があったときはオフフック操作があったか否かを判定する(ステップS4)。ステップS4でオフフック操作がない(=NO)と判定したときはステップS3へ戻り、ステップS4でオフフック操作があった(=YES)と判定したときは通話処理(ステップS5)を実行する。その後、オンフック操作があったか否かを判定する(ステップS6)。ステップS6でオンフック操作がない(=NO)と判定したときはオンフック操作がなされるのを待ち、ステップS6でオンフック操作があった(=YES)と判定したときは終話処理(ステップS7)を実行した後、ステップS3へ戻る。
Next, a control procedure for image processing in the first embodiment of the mobile phone having an imaging function to which the present invention is applied will be described with reference to the flowcharts of FIGS.
As shown in FIG. 5, when the power is turned on, the control unit (CPU) 11 first clears the designation flag to “0” in the initial setting (step S1). In the designation flag, as shown in FIG. 2, “0” represents a state in which no subject to be extracted is designated, and “1” represents a state in which a subject to be extracted is designated. Thereafter, the mobile phone shifts to a standby state, which is a normal state (step S2). Then, it is determined whether there is an incoming call (step S3). When there is an incoming call, it is determined whether or not an off-hook operation has been performed (step S4). If it is determined in step S4 that there is no off-hook operation (= NO), the process returns to step S3. If it is determined in step S4 that there is an off-hook operation (= YES), call processing (step S5) is executed. Thereafter, it is determined whether or not an on-hook operation has been performed (step S6). When it is determined in step S6 that there is no on-hook operation (= NO), the process waits for the on-hook operation to be performed. After the execution, the process returns to step S3.

一方、ステップS3で着信なし(=NO)と判定したときは、抽出画像撮影操作が設定されたか否か判定する(ステップS8)。ここで、撮影操作設定なし(=NO)と判定したときは、符号「1」に従って図6のステップS22へ移行する。また、ステップS8で、撮影操作設定があった(=YES)と判定したときは、タッチパネル132により抽出したい被写体の指定がなされたか否かを判定する(ステップS9)。この抽出被写体指定処理S9の詳しい手順は、後に図7を用いて説明する。   On the other hand, when it is determined in step S3 that there is no incoming call (= NO), it is determined whether or not the extracted image shooting operation is set (step S8). If it is determined that there is no shooting operation setting (= NO), the process proceeds to step S22 in FIG. If it is determined in step S8 that the shooting operation has been set (= YES), it is determined whether or not the subject to be extracted has been designated on the touch panel 132 (step S9). The detailed procedure of the extracted subject designation process S9 will be described later with reference to FIG.

その後、指定フラグが「1」になっているか否か判定する(ステップS10)。被写体の指定がなされていれば、抽出被写体指定処理S9の中で指定フラグが「1」にセットされる。ここで、指定フラグが「0」(=NO)ならばステップS13へジャンプし、指定フラグが「1」(=YES)ならば指定された被写体の輪郭を認識する処理(ステップS11)を行い、図3(b)のように、認識した輪郭を液晶パネル131の画面に表示する(ステップS12)。従って、表示された輪郭が誤ったものであれば、ユーザはこのエラーメッセージによって被写体抽出ができないことを早い段階で知ることができる。なお、ステップS11での被写体の輪郭を認識する処理については、従来より、画像データにおいて撮影物体の輪郭を抽出する画像処理方法が知られており、本発明においても従来と同様な輪郭抽出処理方法を利用することができるので、詳しい説明は省略する。   Thereafter, it is determined whether or not the designation flag is “1” (step S10). If the subject is designated, the designation flag is set to “1” in the extracted subject designation process S9. If the designation flag is “0” (= NO), the process jumps to step S13. If the designation flag is “1” (= YES), a process of recognizing the contour of the designated subject (step S11) is performed. As shown in FIG. 3B, the recognized contour is displayed on the screen of the liquid crystal panel 131 (step S12). Therefore, if the displayed contour is incorrect, the user can know at an early stage that the subject cannot be extracted by this error message. As for the process of recognizing the contour of the subject in step S11, an image processing method for extracting the contour of the photographed object from the image data is conventionally known. In the present invention, the same contour extraction processing method is used in the present invention. Detailed description is omitted.

ステップS12の次には、1回目の撮影操作(シャッターボタンのオン操作)がなされたか否か判定する(ステップS13)。ここで、1回目の撮影操作がなされていない(=NO)と判定したときは1回目の撮影操作がなされるのを待つ。そして、1回目の撮影操作がなされると(=YES)、次のステップS14で、動画像撮影が設定されているか否か判定し、動画像撮影でない(=NO)と判定したときは、静止画像撮影処理を実行する(ステップS15)。一方、ステップS10で動画像撮影が設定されている(=YES)と判定したときは、所定時間動画像撮影処理を実行する(ステップS16)。続いて、ユーザによる2回目の撮影操作がなされたか否か判定する(ステップS17)。   After step S12, it is determined whether or not the first shooting operation (shutter button on operation) has been performed (step S13). Here, when it is determined that the first shooting operation is not performed (= NO), it waits for the first shooting operation to be performed. When the first shooting operation is performed (= YES), it is determined in the next step S14 whether or not moving image shooting is set. If it is determined that the moving image shooting is not performed (= NO), Image photographing processing is executed (step S15). On the other hand, when it is determined in step S10 that moving image shooting is set (= YES), moving image shooting processing is executed for a predetermined time (step S16). Subsequently, it is determined whether or not the user has performed a second shooting operation (step S17).

ここで、2回目の撮影操作がなされていない(=NO)と判定したときは、2回目の撮影操作がなされるのを待つ。そして、ステップS14で2回目の撮影操作がなされた(=YES)と判定したときは、2回目の撮影処理を実行する(ステップS18)。次に、1回目に撮影した画像と2回目に撮影した画像とから被写体画像を抽出する抽出処理(ステップS19)を実行し、抽出された被写体画像からキャラクタを生成して、記憶部17へ記憶(ステップS20)し、指定フラグを「0」にクリアする(ステップS21)。   If it is determined that the second shooting operation has not been performed (= NO), the system waits for the second shooting operation to be performed. When it is determined in step S14 that the second shooting operation has been performed (= YES), the second shooting process is executed (step S18). Next, an extraction process (step S19) for extracting a subject image from the first and second images is executed, a character is generated from the extracted subject image, and stored in the storage unit 17. (Step S20), and the designated flag is cleared to “0” (Step S21).

さらに、本実施形態では、ステップS21で指定フラグを「0」にクリアした後にステップS3へ戻るようにされており、ステップS3で着信なしと判定してステップS8へ移行して抽出画像の撮影操作なし(=NO)と判定すると、符号「1」に従って図6のステップS22へジャンプする。そして、このステップで合成操作がなされたか否か判定し、合成操作がなされた(=YES)と判定した場合には、ユーザ操作で、記憶部17内に予め記憶されている背景画像の中から1つが選択され(ステップS23)、さらにキャラクタの選択(ステップS24)がなされた後、背景画像に対するキャラクタの位置調整(ステップS25)がなされると、背景画像とキャラクタとの合成し合成画像を記憶部17に記憶する処理(ステップS26)を行ってステップS3へ戻る。
なお、ステップS22で合成操作がなされていない(=NO)と判定した場合には、ステップS27へ移行して、発信操作や背景画像撮影操作などその他の操作がなされたか否か判定し、操作がなされていない(=NO)と判定した場合にはステップS3へ戻り、その他の操作がなされた(=YES)と判定した場合にはその操作に対応する処理(ステップS28)を実行してステップS3へ戻る。
Further, in the present embodiment, the designation flag is cleared to “0” in step S21, and then the process returns to step S3. In step S3, it is determined that there is no incoming call, and the process proceeds to step S8, where the extracted image is shot. If it is determined that there is none (= NO), the process jumps to step S22 in FIG. Then, in this step, it is determined whether or not a composition operation has been performed. If it is determined that a composition operation has been performed (= YES), a user operation can select a background image stored in advance in the storage unit 17. After one is selected (step S23) and the character is further selected (step S24) and then the position of the character relative to the background image is adjusted (step S25), the background image and the character are combined and the combined image is stored. The process (step S26) memorize | stored in the part 17 is performed, and it returns to step S3.
If it is determined in step S22 that the compositing operation has not been performed (= NO), the process proceeds to step S27, where it is determined whether another operation such as a transmission operation or a background image shooting operation has been performed. If it is determined that no operation has been performed (= NO), the process returns to step S3. If it is determined that another operation has been performed (= YES), processing corresponding to the operation (step S28) is executed, and step S3 is performed. Return to.

前記ステップS9の抽出被写体指定処理では、図7に示すように、先ず表示画面(タッチパネル)へのタッチ操作がなされたか否か判定する(ステップS41)。ここで、画面へのタッチ操作がなされた(=YES)と判定すると、タッチ位置に認識可能な被写体が存在するか否か判定する(ステップS42)。そして、認識可能な被写体が存在していれば(=YES)ステップS43でこの認識した被写体を抽出対象として指定してから、指定フラグを「1」にセットして当該抽出被写体指定処理を終了して戻る(ステップS44)。また、ステップS42でタッチ位置に認識可能な被写体が存在していない(=NO)と判定すると、ステップS45で、「抽出対象として指定可能な被写体が存在しない」旨のエラーメッセージを出力して抽出被写体指定処理を終了する。従って、ユーザはこのエラーメッセージによって被写体抽出ができないことを早い段階で知ることができる。   In the extracted subject designation process in step S9, as shown in FIG. 7, it is first determined whether or not a touch operation on the display screen (touch panel) has been performed (step S41). If it is determined that a touch operation on the screen has been performed (= YES), it is determined whether or not a recognizable subject exists at the touch position (step S42). If there is a recognizable subject (= YES), the recognized subject is designated as an extraction target in step S43, the designation flag is set to “1”, and the extraction subject designation processing is terminated. (Step S44). If it is determined in step S42 that there is no recognizable subject at the touch position (= NO), an error message “No subject that can be specified as an extraction target” is output and extracted in step S45. The subject designation process ends. Therefore, the user can know at an early stage that the subject cannot be extracted by this error message.

一方、ステップS41で画面へのタッチ操作がなされていない(=NO)と判定すると、十字キーと決定キーによる操作つまりカーソルの移動と選択操作があったか否か判定する(ステップS46)。ここで十字キーと決定キーによる操作があった(=YES)と判定すると、選択位置に認識可能な被写体が存在するか否か判定する(ステップS47)。そして、認識可能な被写体が存在していれば(=YES)ステップS48でこの選択された被写体を抽出対象として指定してから、指定フラグを「1」にセットして当該抽出被写体指定処理を終了して戻る(ステップS49)。また、ステップS47で選択位置に認識可能な被写体が存在していない(=NO)と判定すると、前記ステップS45へ進んでエラーメッセージを出力して抽出被写体指定処理を終了する。   On the other hand, if it is determined in step S41 that the touch operation on the screen has not been performed (= NO), it is determined whether or not there has been an operation using the cross key and the enter key, that is, a cursor movement and selection operation (step S46). If it is determined that there is an operation with the cross key and the enter key (= YES), it is determined whether or not a recognizable subject exists at the selected position (step S47). If a recognizable subject exists (= YES), the selected subject is designated as an extraction target in step S48, and then the designation flag is set to “1” and the extraction subject designation processing is terminated. And return (step S49). If it is determined in step S47 that there is no recognizable subject at the selected position (= NO), the process proceeds to step S45, an error message is output, and the extracted subject designation process is terminated.

また、ステップS46で十字キーと決定キーによる操作がなかった(=NO)と判定すると、撮影範囲内に移動した被写体があるか否か判定する(ステップS50)。つまり、ステップS50は、撮像手段による撮像範囲内において移動した被写体を判別可能な被写体判別手段として機能する。そして、移動した被写体があれば(=YES)ステップS51でこの移動した被写体を抽出対象として指定してから、指定フラグを「1」にセットして当該抽出被写体指定処理を終了して戻る(ステップS52)。ステップS50で移動した被写体がない(=NO)と判定すると、ステップS51,S52をスキップして元に戻る。   If it is determined in step S46 that there is no operation using the cross key and the enter key (= NO), it is determined whether there is a subject that has moved within the shooting range (step S50). That is, step S50 functions as a subject determination unit that can determine a subject that has moved within the imaging range of the imaging unit. If there is a moved subject (= YES), the moved subject is designated as an extraction target in step S51, the designation flag is set to “1”, and the extracted subject designation process is terminated and returned (step S51). S52). If it is determined in step S50 that no subject has moved (= NO), steps S51 and S52 are skipped and the process returns to the original.

以上のように、この実施形態においては、被写体の抽出撮影モードの際に、タッチパネルもしくは十字キーと決定キーによる被写体の指定、または撮影範囲内での被写体の移動があった判定されると、選択された被写体の輪郭が表示された後、撮影範囲から被写体が外れた状態で2回の撮影操作が行われると、1回目の撮影画像と2回目の撮影画像とから、指定された被写体の抽出が行われる。そのため、撮影操作を行う前に表示される被写体の輪郭またはエラーメッセージによって切り抜きが成功するか否か予測することができ、2回目の撮影操作が終わってから切り抜きが失敗したことが分かるというようなことがなくなり、1回のトライで被写体の切り抜き画像を確実に得ることができるようになるという利点がある。   As described above, in this embodiment, in the subject extraction shooting mode, when it is determined that the subject is specified by the touch panel or the cross key and the enter key, or the subject is moved within the shooting range, the selection is performed. After the contour of the subject that has been displayed is displayed, if a shooting operation is performed twice while the subject is out of the shooting range, the specified subject is extracted from the first shot image and the second shot image. Is done. For this reason, it is possible to predict whether or not the clipping will be successful based on the contour of the subject or the error message displayed before the shooting operation is performed, and it will be understood that the clipping has failed after the second shooting operation is completed. There is an advantage that a clipped image of the subject can be reliably obtained in one try.

また、この実施形態では、被写体が撮影範囲内で移動するだけで抽出対象の被写体を指定することができるため、被写体切り抜き画像を生成する際のユーザの操作が簡単になるという利点がある。さらに、1回目の撮影を動画像撮影とすることで、被写体画像の抽出が容易に行える。また、抽出された被写体画像と任意の背景画像とを合成した合成画像を生成する機能を有することにより、コラージュ写真や動画を容易に作成して楽しむことができるようになる。   Further, in this embodiment, since the subject to be extracted can be specified only by moving the subject within the photographing range, there is an advantage that the user's operation when generating the subject cutout image is simplified. Furthermore, the subject image can be easily extracted by using the moving image shooting as the first shooting. Further, by having a function of generating a composite image obtained by combining the extracted subject image and an arbitrary background image, a collage photo or a moving image can be easily created and enjoyed.

以上本発明者によってなされた発明を実施形態に基づき具体的に説明したが、本発明は前記実施形態に限定されるものではない。例えば、前記実施形態においては、被写体の抽出撮影モードの際に、タッチパネルによる被写体の指定もしくは、十字キーと決定キーによる被写体の指定、または撮影範囲内での被写体の移動があった判定されると移動した被写体を抽出対象として指定し、指定もしくは選択された被写体の輪郭が表示された後、2回の撮影を経て被写体の抽出が行われると説明したが、必ずしも3種類の被写体の指定方法を具備する必要はなく、いずれか2種類あるいは1種類の被写体指定方法を具備していればよい。
ただし、タッチパネルによる被写体の指定方法によれば、簡便かつ確実に被写体を指定することができる。また、十字キーと決定キーによる被写体の指定方法によれば、表示部にタッチパネルを設ける必要がないので、コストアップを抑制することができる。さらに、撮影範囲内での被写体の移動があった判定されると移動した被写体を抽出対象として指定する方法によれば、十字キーと決定キーを備えていない電子機器にも適用することがより安価に実現することができる。
Although the invention made by the present inventor has been specifically described based on the embodiment, the present invention is not limited to the embodiment. For example, in the above-described embodiment, in the subject extraction shooting mode, when it is determined that the subject is specified by the touch panel, the subject is specified by the cross key and the enter key, or the subject is moved within the shooting range. Although it has been described that the moved subject is designated as an extraction target, and the subject is extracted through two shootings after the contour of the designated or selected subject is displayed, the three kinds of subject designation methods are not necessarily used. It is not necessary to have, and it is only necessary to have any two types or one type of subject designation method.
However, according to the subject designation method using the touch panel, the subject can be designated easily and reliably. Further, according to the subject designation method using the cross key and the enter key, it is not necessary to provide a touch panel on the display unit, so that an increase in cost can be suppressed. Furthermore, when it is determined that the subject has moved within the shooting range, the method of designating the moved subject as an extraction target is cheaper to apply to an electronic device that does not include the cross key and the enter key. Can be realized.

また、前記実施形態においては、2回の撮影をそれぞれユーザによる撮影操作で実行するとしたが、1回目の撮影のみユーザによる撮影操作で実行し、被写体が撮影範囲から外れるなどの変化があった場合に2回目の撮影を行い、2つの撮影画像から被写体画像を切り抜くようにしてもよい。また、前記実施形態においては、指定された被写体の輪郭を表示するようにしているが、輪郭を表示する代わりに、指定された被写体の明るさを変えたり、カラーフィルタをかけたような表示を行うようにしてもよい。   Further, in the above-described embodiment, the two shootings are performed by the user's shooting operation, but only the first shooting is performed by the user's shooting operation, and there is a change such that the subject is out of the shooting range. Alternatively, the second shooting may be performed, and the subject image may be cut out from the two captured images. In the embodiment, the contour of the designated subject is displayed. Instead of displaying the contour, the brightness of the designated subject is changed or a display with a color filter is applied. You may make it perform.

さらに、前記実施形態においては、本発明を適用して有効な電子機器の一例としての携帯電話機を例にとって説明したが、本発明は携帯電話機に限定されず、撮像機能を有する電子機器であれば例えばデジタルカメラはもちろんPDA(パーソナルデジタルアシスタンツ)やノートパソコンなどにも利用することができる。   Further, in the above-described embodiment, the cellular phone as an example of an electronic device effective by applying the present invention has been described as an example. However, the present invention is not limited to the cellular phone, and any electronic device having an imaging function may be used. For example, it can be used not only for digital cameras but also for PDAs (Personal Digital Assistances) and notebook computers.

10 携帯電話機
11 制御部(CPU;マイクロプロセッサ)
12 操作部
13 表示部
14 電源部
15 電話部
16 通信部
17 記憶部
18 撮像部
19 画像認識部
131 液晶パネル(表示手段)
132 タッチパネル(入力手段)
181 レンズ部
182 電子撮像部(撮像手段)
183 撮像制御部
191 画像データ生成部
192 画像メモリ
193 特徴量演算部
194 ブロックマッチング部
195 画像処理部
196 記録制御部
197 表示制御部
198 入力検出部
10 mobile phone 11 control unit (CPU; microprocessor)
DESCRIPTION OF SYMBOLS 12 Operation part 13 Display part 14 Power supply part 15 Telephone part 16 Communication part 17 Memory | storage part 18 Image pick-up part 19 Image recognition part 131 Liquid crystal panel (display means)
132 Touch panel (input means)
181 Lens unit 182 Electronic imaging unit (imaging means)
183 Imaging control unit 191 Image data generation unit 192 Image memory 193 Feature amount calculation unit 194 Block matching unit 195 Image processing unit 196 Recording control unit 197 Display control unit 198 Input detection unit

Claims (5)

撮像手段と、
前記撮像手段からの撮像信号に基づいた画像を表示可能な表示手段と、
前記撮像手段による撮像範囲内においていずれかの被写体を指定可能な被写体指定手段と、
前記撮像手段による1回目の撮像の際に、前記被写体指定手段により指定された被写体の輪郭を認識する被写体認識手段と、
前記被写体認識手段により認識された輪郭を前記表示手段に表示させる表示制御手段と、
前記撮像手段による1回目の撮像画像と2回目の撮像画像とに基づいて、前記被写体指定手段により指定された被写体の画像を抽出する被写体抽出手段と、
前記撮像手段による撮像範囲内において移動した被写体を判別可能な被写体判別手段と、
を備え、
前記被写体判別手段は、
前記2回目の撮像画像中の特徴点を抽出する特徴量演算部と、
前記特徴点が前記1回目の撮像画像内のどこに対応するかを探索することにより、前記1回目の撮像画像と前記2回目の撮像画像とを位置合わせし、位置合わせした前記1回目の撮像画像と前記2回目の撮像画像との差分から、移動した被写体を判別するブロックマッチング部と、を有し、
前記被写体指定手段は、前記被写体判別手段により移動したと判別された被写体を指定する、
ことを特徴とする電子機器。
Imaging means;
Display means capable of displaying an image based on an imaging signal from the imaging means;
Subject specifying means capable of specifying any subject within the imaging range of the imaging means;
Subject recognition means for recognizing the contour of the subject designated by the subject designation means during the first imaging by the imaging means;
Display control means for displaying on the display means the contour recognized by the subject recognition means;
Subject extracting means for extracting an image of the subject specified by the subject specifying means based on the first captured image and the second captured image by the imaging means;
Subject discriminating means capable of discriminating a subject moved within an imaging range by the imaging means;
With
The subject discrimination means
A feature amount computing unit for extracting feature points in the second captured image;
By searching whether the feature point corresponding to where in said first captured image, before Symbol first aligning the captured image and the previous SL second captured image, aligned with the previous SL first from the difference between the captured image and the previous SL second captured image, anda block matching unit that determines the moved object,
The subject designating unit designates the subject determined to have moved by the subject determining unit;
An electronic device characterized by that.
前記1回目の撮像による画像は動画像であることを特徴とする請求項1に記載の電子機器。   The electronic apparatus according to claim 1, wherein the image obtained by the first imaging is a moving image. 前記被写体抽出手段により抽出された被写体画像と選択された背景画像とを合成した合成画像を生成する画像合成手段をさらに備えることを特徴とする請求項1または2に記載の電子機器。   The electronic apparatus according to claim 1, further comprising an image composition unit that generates a composite image by combining the subject image extracted by the subject extraction unit and the selected background image. 撮像手段と表示手段を備える電子機器における画像処理方法であって、
前記撮像手段による撮像範囲内においていずれかの被写体を指定する被写体指定ステップと、
前記撮像手段による1回目の撮像の際に、前記被写体指定ステップにより指定された被写体の輪郭を認識する被写体認識ステップと、
前記被写体認識ステップにより認識された輪郭を前記表示手段に表示させる被写体輪郭表示ステップと、
前記撮像手段による1回目の撮像画像と2回目の撮像画像とに基づいて、前記被写体指定ステップにより指定された被写体の画像を抽出する被写体抽出ステップと、
前記撮像手段による撮像範囲内において移動した被写体を判別する被写体判別ステップと、
を含み、
前記被写体判別ステップでは、前記2回目の撮像画像中の特徴点を抽出し、抽出した特徴点が前記1回目の撮像画像内のどこに対応するかを探索することにより、前記1回目の撮像画像と前記2回目の撮像画像とを位置合わせし、位置合わせした前記1回目の撮像画像と前記2回目の撮像画像との差分から、移動した被写体を判別し、
前記被写体指定ステップでは、前記被写体判別ステップで移動したと判別された被写体を指定する、
ことを特徴とする画像処理方法。
An image processing method in an electronic device including an imaging unit and a display unit,
A subject designation step for designating any subject within an imaging range of the imaging means;
A subject recognition step of recognizing the contour of the subject designated by the subject designation step during the first imaging by the imaging means;
A subject contour display step for causing the display means to display the contour recognized by the subject recognition step;
A subject extraction step of extracting an image of the subject designated by the subject designation step based on a first captured image and a second captured image by the imaging means;
A subject determination step of determining a subject that has moved within an imaging range by the imaging means;
Including
Wherein the object determination step, the feature points are extracted in the second captured image, by extracting feature points is searched whether corresponding to where in said first captured image, before Symbol first captured image When the front Symbol to align the second captured image, from the difference between the aligned the previous SL first captured image and the previous SL second captured image, to determine the moved object,
In the subject specifying step, the subject determined to have moved in the subject determining step is specified.
An image processing method.
撮像手段と表示手段とを制御するマイクロプロセッサを、
前記撮像手段による撮像範囲内においていずれかの被写体を入力手段からの信号に基づいて指定可能な被写体指定手段、
前記撮像手段による1回目の撮像の際に、前記被写体指定手段により指定された被写体の輪郭を認識する被写体認識手段、
前記被写体認識手段により認識された輪郭を前記表示手段に表示させる表示制御手段、
前記撮像手段による1回目の撮像画像と2回目の撮像画像とに基づいて、前記被写体指定手段により指定された被写体の画像を抽出する被写体抽出手段、
前記撮像手段による撮像範囲内において移動した被写体を判別可能な被写体判別手段、
として機能させ、さらに、
前記被写体判別手段として、前記2回目の撮像画像から特徴点を抽出させ、抽出した前記特徴点が前記1回目の撮像画像内のどこに対応するかを探索することにより、前記1回目の撮像画像と前記2回目の撮像画像とを位置合わせし、位置合わせした前記1回目の撮像画像と前記2回目の撮像画像との差分から、移動した被写体を判別させ、
前記被写体指定手段として、前記被写体判別手段により移動したと判別された被写体を指定させる、
ことを特徴とするプログラム。
A microprocessor that controls the imaging means and the display means;
Subject designation means capable of designating any subject within the imaging range of the imaging means based on a signal from the input means;
Subject recognition means for recognizing the contour of the subject designated by the subject designation means during the first imaging by the imaging means;
Display control means for displaying the contour recognized by the subject recognition means on the display means;
Subject extracting means for extracting an image of the subject specified by the subject specifying means based on the first captured image and the second captured image by the imaging means;
Subject discrimination means capable of discriminating a subject moved within an imaging range by the imaging means;
Function as
As the object discriminating means, wherein to extract a second feature point from the captured image of, by the extracted the feature point is searched where to corresponding said first captured image, before Symbol first captured image When the front Symbol to align the second captured image, from the difference between the aligned the previous SL first captured image and the previous SL second captured image, to determine the moved object,
As the subject specifying means, the subject determined to have been moved by the subject determining means is specified,
A program characterized by that.
JP2009227441A 2009-09-30 2009-09-30 Electronic device, image processing method and program Expired - Fee Related JP5517192B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009227441A JP5517192B2 (en) 2009-09-30 2009-09-30 Electronic device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009227441A JP5517192B2 (en) 2009-09-30 2009-09-30 Electronic device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2011077836A JP2011077836A (en) 2011-04-14
JP5517192B2 true JP5517192B2 (en) 2014-06-11

Family

ID=44021336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009227441A Expired - Fee Related JP5517192B2 (en) 2009-09-30 2009-09-30 Electronic device, image processing method and program

Country Status (1)

Country Link
JP (1) JP5517192B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043381A (en) * 1999-07-27 2001-02-16 Toshiba Corp Moving object contour extracting method
JP3805145B2 (en) * 1999-08-02 2006-08-02 富士写真フイルム株式会社 Imaging apparatus and group photo image forming method

Also Published As

Publication number Publication date
JP2011077836A (en) 2011-04-14

Similar Documents

Publication Publication Date Title
JP4761146B2 (en) Imaging apparatus and program thereof
KR100503039B1 (en) Method to control operation of digital camera for user to easily take an identification photograph
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
US7880792B2 (en) Image capturing apparatus with through image display function
US7791668B2 (en) Digital camera
US20060028576A1 (en) Imaging apparatus
JP5782813B2 (en) Imaging apparatus and image display method
KR101605771B1 (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to execute the method
KR101728042B1 (en) Digital photographing apparatus and control method thereof
US9055212B2 (en) Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user
JP4775644B2 (en) Imaging apparatus and program thereof
JP2007215091A (en) Imaging apparatus and program therefor
KR20120047594A (en) Digital photographing apparatus and control method thereof
JP5013852B2 (en) Angle of view correction apparatus and method, and imaging apparatus
JP2007166011A (en) Imaging apparatus and its program
KR101510101B1 (en) Apparatus for processing digital image and method for controlling thereof
JP6172973B2 (en) Image processing device
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP2012074894A (en) Electronic camera
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP5517192B2 (en) Electronic device, image processing method and program
JP5459771B2 (en) Electronic device, image processing method and program
KR20070117104A (en) Appratus and method for composing image in portable terminal
JP5206421B2 (en) Digital camera, photographing recording method, and photographing control program
JP4409109B2 (en) Electronic camera apparatus and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140326

R150 Certificate of patent or registration of utility model

Ref document number: 5517192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees