JP2007328694A - Image processing apparatus and digital camera - Google Patents

Image processing apparatus and digital camera Download PDF

Info

Publication number
JP2007328694A
JP2007328694A JP2006161042A JP2006161042A JP2007328694A JP 2007328694 A JP2007328694 A JP 2007328694A JP 2006161042 A JP2006161042 A JP 2006161042A JP 2006161042 A JP2006161042 A JP 2006161042A JP 2007328694 A JP2007328694 A JP 2007328694A
Authority
JP
Japan
Prior art keywords
image
face
area
processing apparatus
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006161042A
Other languages
Japanese (ja)
Inventor
Takashi Kageyama
貴史 影山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006161042A priority Critical patent/JP2007328694A/en
Publication of JP2007328694A publication Critical patent/JP2007328694A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that it is complicated to prepare a business card and a document with face portrait by a special operation. <P>SOLUTION: In this image processing apparatus provided with: a face detecting means; a trapezoid detecting means; a free area detecting means for detecting a free area with no character and pattern existing in a trapezoid detected by the trapezoid detecting means; a face image arranging means for arranging a face part detected by the face detecting means in an image; and a means for instructing the preparation of the document with face portrait, when the above instructing means is operated to one piece of image data including a face part and a trapezoid part, the face detecting means detects the face image part, the trapezoid detecting means detects the trapezoid part, and the free area detecting means detects a free area in the trapezoid part, and the face image arranging means arranges the face image part in the free area to create new image data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、デジタルカメラなどの画像処理装置における、文字情報を含む画像データに対する処理に関する。   The present invention relates to processing for image data including character information in an image processing apparatus such as a digital camera.

従来の技術には、画像データのうち、文字を示す画像データを認識して文字データを生成し、他の画像データを重ね合わせることで顔写真付きの名刺などを容易に作成するものがある(例えば、特許文献1参照)。
特開平11−85957号公報(第2頁、図1)
Among conventional image data, there is one that recognizes image data indicating characters and generates character data, and easily creates a business card with a face photo by superimposing other image data ( For example, see Patent Document 1).
JP-A-11-85957 (second page, FIG. 1)

特許文献1に記載の技術おいては、顔写真付き名刺を作成する際、文字を示す画像データと、そこに重ね合わせる画像データがそれぞれ必要であり、また重ね合わせる画像データに対しては拡大/縮小処理しか行われず、撮影の時点で適切な構図で撮影されている必要があった。   In the technique described in Patent Document 1, when creating a business card with a face photograph, image data indicating characters and image data to be superimposed on the image data are required, respectively. Only reduction processing was performed, and it was necessary to photograph with an appropriate composition at the time of photographing.

上述の課題を解決する本発明に係る第一の構成は画像処理装置であって、顔検出手段と、台形検出手段と、前記台形検出手段により検出された台形の中の、文字や模様の無い空き領域を検出する空き領域検出手段と、前記顔検出手段により検出した顔部分を画像内に配置する顔画像配置手段と、顔写真入り書類作成を指示する顔写真入り書類作成指示手段を備えた画像処理装置において、顔部分と台形部分を含む一つの画像データに対して前記顔写真入り書類作成指示手段が操作されたとき、前記顔検出手段により顔画像部分を検出し、前記台形検出手段により台形部分を検出し、前記空き領域検出手段により前記台形部分の空き領域を検出し、前記顔画像配置手段により前記空き領域に前記顔画像部分を配置して新たな画像データを作成することを特徴とするものである。(請求項1)
本発明に係る第二の構成は、前記第一の構成における、検出した台形部分を長方形に補正する台形補正手段を備え、前記新たな画像データの台形部分に前記台形補正手段を用いて台形補正を施すことを特徴とするものである。(請求項2)
本発明に係る第三の構成は、前記第一の構成における、検出した台形部分の直線部分の歪みを補正する歪み補正手段を備え、前記新たな画像データの台形部分の直線部分の歪みに前記歪み補正手段を用いて歪み補正を施すことを特徴とするものである。(請求項3)
本発明に係る第四の構成は、前記第三の構成における、歪み補正手段とは、前記台形検出手段により検出された台形部分を構成する直製部分の直線性に基づき、歪みと判断される部分を台形部分内の周辺色により塗りつぶすものであることを特徴とするものである。(請求項4)
本発明に係る第五の構成は、前記第三の構成における、歪み補正手段とは、前記台形検出手段により検出された台形部分の淵部分から一定領域を切り捨てるものであることを特徴とするものである。(請求項5)
本発明に係る第六の構成は、前記第一の構成における、顔として検出した特長点間の距離に基づき、顔全体が入る適切な領域を自動で選択し、顔画像として抽出することを特徴とするものである。(請求項6)
本発明に係る第七の構成は、前記第一の構成における、空き領域検出手段とは、白い領域を検索する方法により空き領域を検出するものであることを特徴とするものである。(請求項7)
本発明に係る第八の構成は、前記第一の構成における、空き領域検出手段とは、コントラストが小さい領域を検索する方法により空き領域を検出するものであることを特徴とするものである。(請求項8)
本発明に係る第九の構成は、前記第一の構成における、空き領域検出手段により検出された複数の空き領域を、前記台形部分内のどの部分に位置するかにより順位付けし、顔写真を配置する位置を決定することを特徴とするものである。(請求項9)
本発明に係る第十の構成は、前記第一の構成における、空き領域検出手段により検出された複数の空き領域を、空き領域の広さにより順位付けし、顔画像を配置する位置を決定することを特徴とするものである。(請求項10)
本発明に係る第十一の構成は、前記第一の構成における、空き領域検出手段により検出された複数の空き領域を、空き領域の広さと形状により順位付けし、顔画像を配置する位置を決定することを特徴とするものである。(請求項11)
本発明に係る第十二の構成は、前記第一の構成における、空き領域検出手段により検出された空き領域の中から決定された顔写真を配置する位置の領域の広さに基づき、埋め込む顔画像を適切な大きさにリサイズした上で配置することを特徴とするものである。(請求項12)
本発明に係る第十三の構成は、前記第一の構成における、新たな画像データの台形部分の低コントラスト領域を白で塗りつぶすことを特徴とするものである。(請求項13)
本発明に係る第十四の構成は、前記第一の構成における、新たな画像データの台形部分の低コントラスト領域を、前記台形部分の最も広い領域を占める色で塗りつぶすことを特徴とするものである。(請求項14)
本発明に係る第十五の構成は、前記第一の構成における、文字認識手段を備え、前記文字認識手段により前記台形部分内の文字を認識し、前記空き領域検出手段により適切な領域が検出できなかった場合、前記認識した文字を切り抜き、再度前記空き領域検出手段を用いて空き領域を検出し、再検出された空き領域の適切な位置1に前記切り抜いた文字を配置し、残る空き領域の適切な位置2に顔画像を配置することを特徴とするものである。(請求項15)
本発明に係る第十六の構成は、デジタルカメラにおいて、ライブ画を表示する画像表示装置と、顔画像入り書類作成用画像撮影モードと、前記モードの選択手段を備えたデジタルカメラにおいて、前記選択手段が操作されたとき、顔画像入り書類作成用画像撮影モードとなり、顔を配置するべき領域と書類を配置するべき領域を前記画像表示装置に図形で表示することを特徴とするものである。(請求項16)
本発明に係る第十七の構成は、前記第十六の構成における、前記顔画像入り書類作成用画像撮影モードにおいて、顔を配置するべき領域と書類を配置するべき領域で、それぞれ適切なホワイトバランス処理を施すことを特徴とするものである。(請求項17)
本発明に係る第十八の構成は、前記第十六の構成における、前記顔画像入り書類作成用画像撮影モードにおいて、顔を配置するべき領域にAF、AE、AWBを合わせての撮影と、書類を配置するべき領域にAF、AE、AWBを合わせての撮影を連続して行い、両画像を繋ぎ合わせて一枚の顔画像入り書類作成用画像を作成することを特徴とするものである。(請求項18)
A first configuration according to the present invention that solves the above-described problems is an image processing apparatus, which has no characters or patterns in a face detection means, a trapezoid detection means, and a trapezoid detected by the trapezoid detection means. An empty area detecting means for detecting an empty area, a face image arranging means for arranging the face portion detected by the face detecting means in an image, and a face photo-containing document creation instruction means for instructing creation of a face photo-containing document. In the image processing apparatus, when the face-photographed document creation instruction unit is operated for one image data including a face part and a trapezoid part, the face detection part is detected by the face detection part, and the trapezoid detection part is used. A trapezoidal part is detected, a free area of the trapezoidal part is detected by the empty area detecting means, and the face image part is arranged in the empty area by the face image arranging means to create new image data. It is characterized in. (Claim 1)
A second configuration according to the present invention includes a trapezoid correction unit that corrects the detected trapezoidal portion to a rectangle in the first configuration, and uses the trapezoid correction unit for the trapezoidal portion of the new image data. It is characterized by giving. (Claim 2)
A third configuration according to the present invention includes a distortion correction unit that corrects the distortion of the detected linear portion of the trapezoidal portion in the first configuration, and the distortion of the linear portion of the trapezoidal portion of the new image data is Distortion correction is performed using a distortion correction means. (Claim 3)
According to a fourth configuration of the present invention, the distortion correction means in the third configuration is determined to be distortion based on the linearity of the directly manufactured part constituting the trapezoidal part detected by the trapezoid detection means. It is characterized in that the portion is filled with the peripheral color in the trapezoidal portion. (Claim 4)
According to a fifth configuration of the present invention, the distortion correction means in the third configuration is characterized in that a certain region is cut off from the heel portion of the trapezoidal part detected by the trapezoid detection means. It is. (Claim 5)
According to a sixth configuration of the present invention, in the first configuration, based on the distance between feature points detected as a face, an appropriate region where the entire face enters is automatically selected and extracted as a face image. It is what. (Claim 6)
According to a seventh configuration of the present invention, in the first configuration, the free area detecting means detects a free area by a method for searching for a white area. (Claim 7)
An eighth configuration according to the present invention is characterized in that, in the first configuration, the vacant region detecting means detects a vacant region by a method of searching for a region having a low contrast. (Claim 8)
According to a ninth configuration of the present invention, the plurality of vacant areas detected by the vacant area detecting means in the first configuration are ranked according to which part in the trapezoidal part is located, The position to be arranged is determined. (Claim 9)
In a tenth configuration according to the present invention, the plurality of empty regions detected by the empty region detecting means in the first configuration are ranked according to the size of the empty regions, and the position where the face image is arranged is determined. It is characterized by this. (Claim 10)
In an eleventh configuration according to the present invention, the plurality of empty areas detected by the empty area detecting means in the first configuration are ranked according to the size and shape of the empty areas, and the positions where the face images are arranged are determined. It is characterized by determining. (Claim 11)
According to a twelfth aspect of the present invention, there is provided a face to be embedded based on the size of the area where the face photograph determined from the empty area detected by the empty area detecting means in the first structure is arranged. The image is arranged after being resized to an appropriate size. (Claim 12)
A thirteenth configuration according to the present invention is characterized in that, in the first configuration, the low-contrast region of the trapezoidal portion of the new image data is painted in white. (Claim 13)
A fourteenth configuration according to the present invention is characterized in that, in the first configuration, the low-contrast region of the trapezoidal portion of the new image data is filled with a color that occupies the widest region of the trapezoidal portion. is there. (Claim 14)
According to a fifteenth aspect of the present invention, there is provided the character recognition means in the first structure, wherein the character recognition means recognizes a character in the trapezoidal portion, and an appropriate area is detected by the empty area detection means. If not, the recognized character is cut out, the empty area is detected again using the empty area detecting means, the cut character is arranged at an appropriate position 1 of the redetected empty area, and the remaining empty area The face image is arranged at an appropriate position 2 of the above. (Claim 15)
According to a sixteenth aspect of the present invention, in the digital camera, the digital camera includes an image display device that displays a live image, an image shooting mode for creating a document containing a face image, and a selection unit for the mode. When the means is operated, the image capturing mode for creating a document containing a face image is set, and the area where the face is to be arranged and the area where the document is to be arranged are displayed in a graphic form on the image display device. (Claim 16)
According to a seventeenth configuration of the present invention, in the sixteenth configuration, in the image capturing mode for creating a face image-containing document, an area in which a face is to be placed and an area in which a document is to be placed are respectively appropriate white. The balance processing is performed. (Claim 17)
According to an eighteenth configuration of the present invention, in the sixteenth configuration, in the image capturing mode for creating a face image-containing document, shooting in which AF, AE, and AWB are combined in a region where a face is to be arranged; It is characterized in that AF, AE, and AWB are continuously photographed in a region where a document is to be arranged, and both images are connected to create a single document image containing a face image. . (Claim 18)

本発明に拠れば、例えば名刺を保持した姿勢の人物を撮影した画像に対し、前記顔写真入り書類作成指示手段を操作する作業のみによって、顔写真付き名刺データを生成することができる。   According to the present invention, for example, business card data with a face photo can be generated only by manipulating the face photo-containing document creation instructing means for an image obtained by photographing a person in a posture holding a business card.

次に、本発明の詳細を実施例の記述に従って説明する。   Next, details of the present invention will be described in accordance with the description of the embodiments.

図1は、本発明の実施形態に係る画像処理装置の概略構成を示すブロック図である。図1において、100は画像処理装置である。10は撮影レンズ、12は絞り機能を備えるシャッター、14は光学像を電気信号に変換する撮像素子、120は撮像素子14のアナログ信号出力を増幅してカメラの感度を設定するゲインアンプ、16は撮像素子14のアナログ信号出力をディジタル信号に変換するA/D変換器である。   FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention. In FIG. 1, reference numeral 100 denotes an image processing apparatus. 10 is a photographic lens, 12 is a shutter having a diaphragm function, 14 is an image sensor that converts an optical image into an electrical signal, 120 is a gain amplifier that amplifies the analog signal output of the image sensor 14 and sets the sensitivity of the camera, 16 It is an A / D converter that converts an analog signal output of the image sensor 14 into a digital signal.

18は撮像素子14、A/D変換器16、D/A変換器26にクロック信号や制御信号を供給するタイミング発生回路であり、メモリ制御回路22及びシステム制御回路50により制御される。20は信号処理回路であり、A/D変換器16からのデータ或いはメモリ制御回路22からのデータに対して所定の画素補間処理や色変換処理を行う。また、撮像した画像データを用いて所定の演算処理を行ない、得られた演算結果に基づいてシステム制御回路50が露光制御手段40、測距制御手段42に対して制御を行なう、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行っている。   A timing generation circuit 18 supplies a clock signal and a control signal to the image sensor 14, the A / D converter 16, and the D / A converter 26, and is controlled by the memory control circuit 22 and the system control circuit 50. A signal processing circuit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D converter 16 or the data from the memory control circuit 22. Further, a predetermined calculation process is performed using the captured image data, and the system control circuit 50 controls the exposure control unit 40 and the distance measurement control unit 42 based on the obtained calculation result. The lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing are performed.

さらに、信号処理回路20においては、撮像した画像データを用いて所定の演算処理を行ない、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   Further, the signal processing circuit 20 performs predetermined arithmetic processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

22はメモリ制御回路であり、A/D変換器16、タイミング発生回路18、信号処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮・伸長回路32を制御する。A/D変換器16のデータが信号処理回路20、メモリ制御回路22を介して、或いはA/D変換器16のデータが直接メモリ制御回路22を介して、画像表示メモリ24或いはメモリ30に書き込まれる。   A memory control circuit 22 controls the A / D converter 16, the timing generation circuit 18, the signal processing circuit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression circuit 32. The data of the A / D converter 16 is written to the image display memory 24 or the memory 30 via the signal processing circuit 20 and the memory control circuit 22 or the data of the A / D converter 16 is directly passed through the memory control circuit 22. It is.

51は画像処理部であり、操作部70により指示された動作指示に従い、メモリ30から読み出した画像データに対して顔検出、台形領域検出、台形補正、文字認識などの処理、および、ある画像データに対して別の画像データを埋め込む画像合成などの処理を行う。   Reference numeral 51 denotes an image processing unit, which performs processing such as face detection, trapezoid area detection, keystone correction, and character recognition on image data read from the memory 30 in accordance with an operation instruction instructed by the operation unit 70, and certain image data Then, processing such as image composition for embedding another image data is performed.

システム制御回路50は露出制御手段122、輝度レベル演算手段123、補正ゲイン演算手段124を含み、122はメモリ制御回路22を介してTTLによって測光された輝度レベルを基に適正露出値を演算し露光制御手段40を制御する。123はメモリ制御回路22を介して撮像した画像データから輝度レベルを演算し、124は122によって測光された輝度レベルと123によって演算された輝度レベルを比較し適正レベルとなるよう補正値を演算して信号処理回路20によりデジタルゲイン補正を加える。   The system control circuit 50 includes an exposure control means 122, a brightness level calculation means 123, and a correction gain calculation means 124. 122 calculates an appropriate exposure value based on the brightness level measured by the TTL via the memory control circuit 22, and exposes it. Control means 40 is controlled. 123 calculates the luminance level from the image data captured through the memory control circuit 22, and 124 compares the luminance level measured by 122 with the luminance level calculated by 123, and calculates a correction value to obtain an appropriate level. Then, digital gain correction is applied by the signal processing circuit 20.

24は画像表示メモリ、26はD/A変換器、28はTFT LCD等から成る画像表示部であり、画像表示メモリ24に書き込まれた表示用の画像データはD/A変換器26を介して画像表示部28により表示される。画像表示部28を用いて撮像した画像データを逐次表示すれば、電子ファインダ機能を実現することが可能である。   Reference numeral 24 denotes an image display memory, 26 denotes a D / A converter, 28 denotes an image display unit including a TFT LCD, and the image data for display written in the image display memory 24 passes through the D / A converter 26. Displayed by the image display unit 28. If the image data captured using the image display unit 28 is sequentially displayed, the electronic viewfinder function can be realized.

また、画像表示部28は、システム制御回路50の指示により任意に表示をON/OFFすることが可能である。30は撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を連続して撮影する連写撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。また、メモリ30はシステム制御回路50の作業領域としても使用することが可能である。   Further, the image display unit 28 can arbitrarily turn on / off the display according to an instruction from the system control circuit 50. Reference numeral 30 denotes a memory for storing captured still images and moving images, and has a sufficient storage capacity to store a predetermined number of still images and a predetermined time of moving images. This makes it possible to write a large amount of images to the memory 30 at high speed even in continuous shooting or panoramic shooting in which a plurality of still images are continuously shot. The memory 30 can also be used as a work area for the system control circuit 50.

32は適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する圧縮・伸長回路であり、メモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。40は絞り機能を備えるシャッター12を制御する露光制御手段であり、フラッシュ48と連携することによりフラッシュ調光機能も有するものである。   Reference numeral 32 denotes a compression / decompression circuit that compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like, reads an image stored in the memory 30, performs compression processing or decompression processing, and stores the processed data in the memory 30. Write to. Reference numeral 40 denotes an exposure control means for controlling the shutter 12 having a diaphragm function, and has a flash light control function in cooperation with the flash 48.

42は撮影レンズ10のフォーカシングを制御する測距制御手段、44は撮影レンズ10のズーミングを制御するズーム制御手段である。   Reference numeral 42 denotes distance measurement control means for controlling the focusing of the photographing lens 10, and reference numeral 44 denotes zoom control means for controlling the zooming of the photographing lens 10.

露光制御手段40、測距制御手段42はTTL方式を用いて制御されており、撮像した画像データを信号処理回路20によって演算した演算結果に基づき、システム制御回路50が露光制御手段40、測距制御手段42に対して制御を行う。50は画像処理装置100全体を制御するシステム制御回路、52はシステム制御回路50の動作用の定数、変数、プログラム等を記憶するメモリである。   The exposure control means 40 and the distance measurement control means 42 are controlled using the TTL method. Based on the calculation result obtained by calculating the captured image data by the signal processing circuit 20, the system control circuit 50 performs the exposure control means 40 and the distance measurement. Control is performed on the control means 42. Reference numeral 50 denotes a system control circuit that controls the entire image processing apparatus 100, and reference numeral 52 denotes a memory that stores constants, variables, programs, and the like for operation of the system control circuit 50.

54はシステム制御回路50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する液晶表示装置、スピーカー等の表示部であり、画像処理装置100の操作部近辺の視認し易い位置に単数或いは複数個所設置され、例えばLCDやLED、発音素子等の組み合わせにより構成されている。また、表示部54は、その一部の機能が光学ファインダ104内に設置されている。   Reference numeral 54 denotes a display unit such as a liquid crystal display device or a speaker that displays an operation state or a message using characters, images, sounds, or the like in accordance with execution of a program in the system control circuit 50. One or a plurality of places are provided near the portion where they can be easily seen, and for example, a combination of an LCD, an LED, a sound generation element, and the like is used. The display unit 54 has a part of its function installed in the optical viewfinder 104.

表示部54の表示内容のうち、LCD等に表示するものとしては、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示、シャッタースピード表示、絞り値表示、露出補正表示、フラッシュ表示、赤目緩和表示、マクロ撮影表示、ブザー設定表示、時計用電池残量表示、電池残量表示、エラー表示、複数桁の数字による情報表示、記録媒体200及び210の着脱状態表示、通信I/F動作表示、日付け・時刻表示、等がある。   Among the display contents of the display unit 54, what is displayed on the LCD or the like includes single shot / continuous shooting display, self-timer display, compression rate display, number of recorded pixels, number of recorded pixels, number of remaining images that can be captured, shutter Speed display, Aperture value display, Exposure compensation display, Flash display, Red-eye reduction display, Macro shooting display, Buzzer setting display, Clock battery level display, Battery level display, Error display, Multi-digit number information display and recording There are a display state of the media 200 and 210, a communication I / F operation display, a date / time display, and the like.

また、表示部54の表示内容のうち、光学ファインダ104内に表示するものとしては、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示、等がある。56は電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。   Among the display contents of the display unit 54, what is displayed in the optical viewfinder 104 includes in-focus display, camera shake warning display, flash charge display, shutter speed display, aperture value display, exposure correction display, and the like. Reference numeral 56 denotes an electrically erasable / recordable nonvolatile memory, such as an EEPROM.

62、64、66、68及び70は、システム制御回路50の各種の動作指示を入力するための操作手段であり、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。ここで、これらの操作手段の具体的な説明を行う。   Reference numerals 62, 64, 66, 68 and 70 are operation means for inputting various operation instructions of the system control circuit 50, and include one or a plurality of switches, dials, touch panels, pointing by line-of-sight detection, voice recognition devices, and the like. Composed of a combination. Here, a specific description of these operating means will be given.

62はシャッタースイッチSW1で、不図示のシャッタースイッチの操作途中でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を指示する。64はシャッタースイッチSW2で、不図示のシャッタースイッチの操作完了でONとなり、撮像素子12から読み出した信号をA/D変換器16、メモリ制御回路22を介してメモリ30に画像データを書き込む露光処理、信号処理回路20やメモリ制御回路22での演算を用いた現像処理、メモリ30から画像データを読み出し、圧縮・伸長回路32で圧縮を行い、記録媒体200或いは210に画像データを書き込む記録処理という一連の処理の動作開始を指示する。   Reference numeral 62 denotes a shutter switch SW1, which is turned ON during the operation of a shutter switch (not shown), and performs AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, EF (flash pre-flash) processing, and the like. Instruct to start operation. Reference numeral 64 denotes a shutter switch SW2, which is turned on when the operation of a shutter switch (not shown) is completed, and an exposure process for writing a signal read from the image sensor 12 to the memory 30 via the A / D converter 16 and the memory control circuit 22. Development processing using computations in the signal processing circuit 20 and the memory control circuit 22, recording processing for reading out image data from the memory 30, compression in the compression / decompression circuit 32, and writing the image data in the recording medium 200 or 210. Instructs the start of a series of processing operations.

66は画像表示ON/OFFスイッチで、画像表示部28のON/OFFを設定することが出来る。この機能により、光学ファインダ104を用いて撮影を行う際に、TFT LCD等から成る画像表示部への電流供給を遮断することにより、省電力を図ることが可能となる。   Reference numeral 66 denotes an image display ON / OFF switch, which can set ON / OFF of the image display unit 28. With this function, when photographing using the optical viewfinder 104, it is possible to save power by cutting off the current supply to the image display unit including a TFT LCD or the like.

68はクイックレビューON/OFFスイッチで、撮影直後に撮影した画像データを自動再生するクイックレビュー機能を設定する。なお、本実施形態では特に、画像表示部28をOFFとした場合におけるクイックレビュー機能の設定をする機能を備えるものとする。また、121は計時部で、シャッタースイッチ62が押されてからシャッタースイッチ64が押されるまでの時間を計測することが可能である。   Reference numeral 68 denotes a quick review ON / OFF switch, which sets a quick review function for automatically reproducing image data taken immediately after photographing. In the present embodiment, in particular, a function for setting a quick review function when the image display unit 28 is turned off is provided. Reference numeral 121 denotes a timing unit that can measure the time from when the shutter switch 62 is pressed until the shutter switch 64 is pressed.

70は各種ボタンやタッチパネル等からなる操作部で、メニューボタン、セットボタン、マクロボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等がある。   Reference numeral 70 denotes an operation unit including various buttons, a touch panel, and the like. A menu button, a set button, a macro button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, a menu movement + (plus) button, a menu movement − (minus). ) Button, playback image move + (plus) button, playback image-(minus) button, shooting image quality selection button, exposure correction button, date / time setting button, and the like.

80は電源制御手段で、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びシステム制御回路50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。   80 is a power control means, which is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, etc., and detects the presence / absence of a battery, the type of battery, the remaining battery level, and the detection result In addition, the DC-DC converter is controlled based on an instruction from the system control circuit 50, and a necessary voltage is supplied to each part including the recording medium for a necessary period.

82はコネクタ、84はコネクタ、86はアルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる電源手段である。   Reference numeral 82 denotes a connector, 84 denotes a connector, and 86 denotes a power source means including a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter.

90及び94はメモリカードやハードディスク等の記録媒体とのインタフェース、92及び96はメモリカードやハードディスク等の記録媒体と接続を行うコネクタ、98はコネクタ92及び或いは96に記録媒体200或いは210が装着されているか否かを検知する記録媒体着脱検知手段である。   90 and 94 are interfaces with a recording medium such as a memory card or a hard disk, 92 and 96 are connectors for connecting to a recording medium such as a memory card or a hard disk, and 98 is a recording medium 200 or 210 attached to the connector 92 or 96. Recording medium attachment / detachment detecting means for detecting whether or not the recording medium is present.

なお、本実施形態では記録媒体を取り付けるインタフェース及びコネクタを2系統持つものとして説明している。もちろん、記録媒体を取り付けるインタフェース及びコネクタは、単数或いは複数、いずれの系統数を備える構成としても構わない。また、異なる規格のインタフェース及びコネクタを組み合わせて備える構成としても構わない。インタフェース及びコネクタとしては、PCMCIAカード等の規格に準拠したものを用いて構成して構わない。   In the present embodiment, it is assumed that there are two interfaces and connectors for attaching the recording medium. Of course, the interface and the connector for attaching the recording medium may have a single or a plurality of systems, any number of systems. Moreover, it is good also as a structure provided with combining the interface and connector of a different standard. The interface and connector may be configured using a PCMCIA card compliant standard.

さらに、インタフェース90及び94、そしてコネクタ92及び96をPCMCIAカード等の規格に準拠したものを用いて構成した場合、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード、等の各種通信カードを接続することにより、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことが出来る。   Further, when the interfaces 90 and 94 and the connectors 92 and 96 are configured using a PCMCIA card or the like, LAN card, modem card, USB card, IEEE1394 card, P1284 card, SCSI card, PHS, etc. By connecting various communication cards such as a communication card, image data and management information attached to the image data can be transferred to and from peripheral devices such as other computers and printers.

104は光学ファインダであり、画像表示部28による電子ファインダ機能を使用すること無しに、光学ファインダのみを用いて撮影を行うことが可能である。また、光学ファインダ104内には、表示部54の一部の機能、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示などが設置されている。   Reference numeral 104 denotes an optical viewfinder, which can take an image using only the optical viewfinder without using the electronic viewfinder function of the image display unit 28. In the optical viewfinder 104, some functions of the display unit 54, for example, a focus display, a camera shake warning display, a flash charge display, a shutter speed display, an aperture value display, an exposure correction display, and the like are installed.

110は通信手段で、RS232CやUSB、IEEE1394、P1284、SCSI、モデム、LAN、無線通信、等の各種通信機能を有する。112は通信手段110により画像処理装置100を他の機器と接続するコネクタ或いは無線通信の場合はアンテナである。200はメモリカードやハードディスク等の記録媒体である。   A communication unit 110 has various communication functions such as RS232C, USB, IEEE1394, P1284, SCSI, modem, LAN, and wireless communication. Reference numeral 112 denotes a connector for connecting the image processing apparatus 100 to another device by the communication unit 110 or an antenna in the case of wireless communication. Reference numeral 200 denotes a recording medium such as a memory card or a hard disk.

記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、画像処理装置100とのインタフェース204、画像処理装置100と接続を行うコネクタ206を備えている。210はメモリカードやハードディスク等の記録媒体である。記録媒体210は、半導体メモリや磁気ディスク等から構成される記録部212、画像処理装置100とのインタフェース214、画像処理装置100と接続を行うコネクタ216を備えている。   The recording medium 200 includes a recording unit 202 composed of a semiconductor memory, a magnetic disk, or the like, an interface 204 with the image processing apparatus 100, and a connector 206 for connecting to the image processing apparatus 100. Reference numeral 210 denotes a recording medium such as a memory card or a hard disk. The recording medium 210 includes a recording unit 212 composed of a semiconductor memory, a magnetic disk, and the like, an interface 214 with the image processing apparatus 100, and a connector 216 that connects to the image processing apparatus 100.

図2は、図1における画像処理部51で行われる処理のフローを示すフローチャートである。まず、S201において処理対象である画像データ1(図5)に対して人間の顔を検出する顔検出処理が行われる。S201で顔が一つ検出された場合は、S202に進む。S202では、顔として検出された特長点(目や口)間の距離に基づき、顔全体が入る適切な領域を自動で選択し、画像データ2として切り出す(図6)。このとき自動で選択される領域の、顔の特徴点間の距離に対する大きさは、事前に、ユーザーインターフェース(UI)により使用者が設定可能である。   FIG. 2 is a flowchart showing a flow of processing performed by the image processing unit 51 in FIG. First, in S201, face detection processing for detecting a human face is performed on the image data 1 (FIG. 5) to be processed. If one face is detected in S201, the process proceeds to S202. In S202, based on the distance between feature points (eyes and mouth) detected as a face, an appropriate area where the entire face enters is automatically selected and cut out as image data 2 (FIG. 6). The size of the area automatically selected at this time with respect to the distance between the facial feature points can be set in advance by the user through a user interface (UI).

S201で検出された顔の数が二つ以上であった場合は、フローのS216に進む。S216では、検出された顔の中から一つを選択するUIを動作させて使用者に顔の選択を促し、顔が一つ選択されたらフローのS202に進む。S216で、使用者は、検出された複数の顔の中から一つを選択する以外に、任意の領域を選択することも可能である。S216で複数の顔の中から一つを選択しない場合と、S201で顔を一つも検出することができなかった場合、S217に進む。S217では、使用者が任意の領域を選択できるUIを動作させて領域の選択を促し、任意の領域が選択されたらその領域を画像データ2として切り出し、S203に進む。   If the number of faces detected in S201 is two or more, the process proceeds to S216 of the flow. In S216, the UI for selecting one of the detected faces is operated to prompt the user to select a face, and when one face is selected, the process proceeds to S202 of the flow. In S216, the user can select an arbitrary area other than selecting one of the detected faces. When one face is not selected from the plurality of faces in S216, and when no face is detected in S201, the process proceeds to S217. In S217, the user is prompted to select an area by operating a UI that allows the user to select an arbitrary area. If an arbitrary area is selected, the area is cut out as image data 2, and the process proceeds to S203.

S203では、画像データ1に対し、台形領検出処理が行われる(図7)。S203で台形領域が一つ検出された場合は、その領域を画像領域1とし、S204に進む(図8)。S203で二つ以上の台形領域が検出された場合は、その領域の最も大きいものを画像領域1とし、S204に進む。S203で台形領域が検出されなかった場合はS218に進み、使用者が任意の領域を選択できるUIを動作させて領域の選択を促し、任意の長方形領域が選択されたらその領域を画像領域2とし、S205に進む。   In S203, a trapezoidal area detection process is performed on the image data 1 (FIG. 7). If one trapezoid area is detected in S203, that area is set as the image area 1, and the process proceeds to S204 (FIG. 8). If two or more trapezoidal areas are detected in S203, the largest area is set as the image area 1, and the process proceeds to S204. If the trapezoidal area is not detected in S203, the process proceeds to S218, where the user is prompted to select an area by operating a UI that can select an arbitrary area. If an arbitrary rectangular area is selected, that area is set as the image area 2. The process proceeds to S205.

S204では、画像領域1に対して、台形補正処理を施して長方形の画像領域2とし、S205に進む。S205では、画像領域2の周辺部分に含まれている指や指の影を消去するために、画像領域2の歪み補正を施す(図9)。S205で行われる歪み補正は、画像領域2の周辺部分を、画像領域2の最も広い領域を占める色で塗りつぶす、或いは、画像領域2の淵部分から一定領域を切り捨てることによって行われる。S205で歪み補正された画像領域2を画像データ3として切り出し、S206に進む。   In S204, a trapezoidal correction process is performed on the image area 1 to obtain a rectangular image area 2, and the process proceeds to S205. In S205, distortion correction of the image region 2 is performed in order to erase the finger and the shadow of the finger included in the peripheral portion of the image region 2 (FIG. 9). The distortion correction performed in S205 is performed by filling the peripheral portion of the image region 2 with a color that occupies the widest region of the image region 2, or by cutting off a certain region from the heel portion of the image region 2. The image area 2 whose distortion has been corrected in S205 is cut out as image data 3, and the process proceeds to S206.

S206では、画像データ3に対し、画像データ2をリサイズしたものを画像合成するための空き領域検出が行われる(図10)。S206で行われる空き領域検出は、白い領域を検索する、或いは、コントラストが小さい領域を検索することにより行われる。空き領域が一つまたは複数検出された場合は、その領域の広さ、形状、画像データ2の中のどの位置にあるかに基づき、画像合成領域としての適切さの順位付けを行い、最も画像合成領域として適切な領域を画像領域3とする。また空き領域が検出されなかった場合は画像領域3を設定せず、S207に進む。   In S206, free space detection is performed for image synthesis of image data 3 that has been resized from image data 2 (FIG. 10). The empty area detection performed in S206 is performed by searching for a white area or searching for an area with low contrast. When one or more vacant areas are detected, the appropriateness as an image synthesis area is ranked based on the area size, shape, and position in the image data 2, and the most image An area appropriate as a synthesis area is defined as an image area 3. If no empty area is detected, the image area 3 is not set and the process proceeds to S207.

S207では、前記画像領域3に基づき、画像合成領域を決定する。S207で行われる画像合成領域選択は、画像領域3が設定されている場合、画像領域3が画像合成に適しているかどうかを判断し、適していると判断した場合はその領域を画像合成領域とし、S208に進む。S207で、画像領域3が画像合成に適していないと判断した場合、S210に進む。S207で行う画像合成に適しているかどうかの判断は、画像領域3の広さに基づき判断する。   In S207, an image composition area is determined based on the image area 3. In the image composition area selection performed in S207, when the image area 3 is set, it is determined whether the image area 3 is suitable for image composition. If it is determined that the image area 3 is suitable, the area is set as the image composition area. , Go to S208. If it is determined in S207 that the image area 3 is not suitable for image composition, the process proceeds to S210. Whether or not it is suitable for the image composition performed in S207 is determined based on the size of the image area 3.

S210では、画像データ3に対し、文字検出処理が行われる。S210で文字が検出された場合、S211に進む。S211では、S210で検出された文字データを切り取り、文字データを切り取った領域を周辺色で塗りつぶし、S212に進む。S212では、S211で切り取った文字データを、元々あった位置から画像領域3を広くする方向に移動させ、再び画像データ3に配置する。このとき、必要に応じて前記文字データを縮小してから再配置する。S212で画像データ3に文字データを再配置したら、S206に進む。S210で文字が検出されなかった場合、S213に進み、使用者が任意の領域を選択できるUIを動作させて領域の選択を促し、任意の領域が選択されたらその領域を画像合成領域とし、S208に進む。   In S210, character detection processing is performed on the image data 3. If a character is detected in S210, the process proceeds to S211. In S211, the character data detected in S210 is cut out, and the area from which the character data has been cut out is painted with a peripheral color, and the process proceeds to S212. In S212, the character data cut out in S211 is moved from the original position in the direction of widening the image area 3, and again arranged in the image data 3. At this time, the character data is reduced and rearranged as necessary. If character data is rearranged in the image data 3 in S212, the process proceeds to S206. If no character is detected in S210, the process proceeds to S213, where the user is prompted to select a region by operating a UI that allows the user to select an arbitrary region. Proceed to

S208では、前記画像合成領域の大きさに基づき、前記画像データ2のリサイズを行う。このとき、図1で示した圧縮伸長32を使用してもよい。S208でリサイズされた画像データ2を画像データ4とし、S209に進む。   In S208, the image data 2 is resized based on the size of the image composition area. At this time, the compression / decompression 32 shown in FIG. 1 may be used. The image data 2 resized in S208 is set as image data 4, and the process proceeds to S209.

S209では、前記画像合成領域に前記画像データ4を合成する処理を行い、合成画像データを作成する(図11)。   In S209, a process of synthesizing the image data 4 in the image synthesis area is performed to create synthesized image data (FIG. 11).

図3は、図1で示した構成の画像処理装置の、画像処理部を動作させるフローの一例を示したフローチャートである。画像処理装置の電源を投入し(S301)、画像を撮影・記録するための撮影モードであった場合は、図1の操作部70を操作して、記録されている画像データを見るための再生モードにする。電源投入時に再生モードになっていた場合は何もしない(S302、S303)。再生モードでは、図1の記録媒体200または210に記録されている画像データが、図1の画像表示部28に表示される。   FIG. 3 is a flowchart showing an example of a flow for operating the image processing unit of the image processing apparatus having the configuration shown in FIG. When the image processing apparatus is turned on (S301) and the shooting mode is for shooting / recording an image, the operation unit 70 in FIG. 1 is operated to reproduce the recorded image data. Enter mode. If the playback mode is set when the power is turned on, nothing is done (S302, S303). In the reproduction mode, the image data recorded on the recording medium 200 or 210 in FIG. 1 is displayed on the image display unit 28 in FIG.

図1の操作部70を操作することで、任意の画像を選択する(S304)。選択した画像に対して、削除、通信手段110を使用してのデータ
転送などの処理を選択することが可能である。それらの処理の中から、顔写真入り書類作成処理を選択する(S305)。顔写真入書類作成処理が選択されると、図2でフローを示した画像処理部が動作する。このとき、S304で選択された画像が図2のフローにおける画像データ1である。画像処理が終了すると、図2のフローにおける画像データ4が出力される。
An arbitrary image is selected by operating the operation unit 70 of FIG. 1 (S304). It is possible to select processing such as deletion and data transfer using the communication unit 110 for the selected image. From these processes, a document creation process with a face photo is selected (S305). When the face photograph input document creation process is selected, the image processing unit shown in the flow in FIG. 2 operates. At this time, the image selected in S304 is the image data 1 in the flow of FIG. When the image processing is completed, the image data 4 in the flow of FIG. 2 is output.

前記画像データ4は、前記画像表示部28に画像として表示され、使用者にその画像を保存するかどうかの選択を促すUIが動作する(S307)。S307で保存することが選択された場合、前記画像データ4は前記記録媒体に記録される(S308)。S307で保存しないことが選択された場合、前記画像データ4は破棄される。ここで、S307を通らず、S308の画像データ4の保存処理が行われる構成でもよい。   The image data 4 is displayed as an image on the image display unit 28, and a UI that prompts the user to select whether to save the image operates (S307). When saving in S307 is selected, the image data 4 is recorded on the recording medium (S308). If it is selected not to save in S307, the image data 4 is discarded. Here, the configuration may be such that the image data 4 storage process of S308 is performed without passing through S307.

図4は、図3で示したものとは別の、図2で処理フローを示した画像処理部を動作させるフローの一例を示したフローチャートである。画像処理装置の電源を投入し(S401)、再生モードであった場合は、図1の操作部70を操作して撮影モードにする。電源投入時に撮影モードになっていた場合は何もしない(S402、S403)。撮影モードでは、図1の、撮像素子14により得られた画像信号をシステム制御回路50により信号処理部20など制御し、逐次画像表示部28に表示することでライブ画表示することが可能である。   FIG. 4 is a flowchart illustrating an example of a flow for operating the image processing unit illustrated in FIG. 2, which is different from that illustrated in FIG. 3. When the power of the image processing apparatus is turned on (S401) and it is in the reproduction mode, the operation unit 70 in FIG. If the shooting mode is set when the power is turned on, nothing is done (S402, S403). In the shooting mode, it is possible to display a live image by controlling the signal processing unit 20 and the like by the system control circuit 50 and sequentially displaying the image signal obtained by the imaging element 14 in FIG. 1 on the image display unit 28. .

撮影モードでは、撮影時の露出制御、フォーカスの動作、UI表示などの設定(撮影モード)を選択をすることが可能である。それらの設定の中から、顔画像入り書類作成用画像撮影モードを選択する(S404)。顔画像入り書類作成用画像撮影モードが選択されると、図1の画像表示部28に表示されているライブ画に、顔を配置するべき領域と書類を配置するべき領域を前記画像表示装置に図形で表示する(S405)。   In the shooting mode, it is possible to select settings (shooting mode) such as exposure control during shooting, focus operation, and UI display. From these settings, an image shooting mode for creating a document containing a face image is selected (S404). When the image capturing mode for creating a document containing a face image is selected, an area in which a face is to be arranged and an area in which a document is to be arranged are displayed in the image display device in the live image displayed on the image display unit 28 in FIG. A graphic is displayed (S405).

使用者は、S405で表示された図形に合わせて被写体を配置し、図1の操作部70を操作することで撮影を指示する(S406)。撮影が指示されると、前記システム制御回路は周辺回路を制御し、前記顔を配置するべき領域にAF、AE、AWBを合わせて撮影を行い、撮影画像データ1を取得する(S407)。S407の処理に続けて、今度は前記書類を配置するべき領域にAF、AE、AWBを合わせて撮影を行い、撮影画像データ2を取得する(S408)。続いて、撮影画像データ1の、前記顔を配置するべき領域を含む領域と、撮影画像データ2の、前記書類を配置するべき領域を合成し、画像データ5を作成する(S409)。   The user places a subject in accordance with the graphic displayed in S405, and instructs photographing by operating the operation unit 70 of FIG. 1 (S406). When the photographing is instructed, the system control circuit controls the peripheral circuit, performs the photographing by combining AF, AE, and AWB in the area where the face is to be arranged, and acquires the photographed image data 1 (S407). Following the processing of S407, this time, AF, AE, and AWB are photographed in the area where the document is to be placed, and photographed image data 2 is acquired (S408). Subsequently, the area including the area where the face is to be arranged in the photographed image data 1 and the area where the document is to be arranged in the photographed image data 2 are combined to create image data 5 (S409).

画像データ5が作成されると、図2でフローを示した画像処理部が動作する。このとき、画像データ5が図2のフローにおける画像データ1である。画像処理が終了すると、図2のフローにおける画像データ4が出力される。画像データ4および画像データ5は、図1の記録媒体200または210に記録される。   When the image data 5 is created, the image processing unit whose flow is shown in FIG. 2 operates. At this time, the image data 5 is the image data 1 in the flow of FIG. When the image processing is completed, the image data 4 in the flow of FIG. 2 is output. The image data 4 and the image data 5 are recorded on the recording medium 200 or 210 in FIG.

本発明の実施形態に係る画像処理装置の概略構成を示したブロック図1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の実施形態に係る画像処理のフローFlow of image processing according to an embodiment of the present invention 本発明の実施形態に係る画像処理を動作させるフローの一例An example of a flow for operating image processing according to an embodiment of the present invention 本発明の実施形態に係る画像処理を動作させるフローの一例An example of a flow for operating image processing according to an embodiment of the present invention 本発明の実施形態説明のための画像データ1イメージImage data for explaining the embodiment of the present invention 1 image 本発明の実施形態説明のための顔領域抽出イメージFace area extraction image for explaining the embodiment of the present invention 本発明の実施形態説明のための台形領域抽出イメージTrapezoidal region extraction image for explaining the embodiment of the present invention 本発明の実施形態説明のための画像領域1イメージImage region 1 image for explaining the embodiment of the present invention 本発明の実施形態説明のための画像データ3イメージ3 image data for explaining the embodiment of the present invention 本発明の実施形態説明のための空き領域検出イメージFree space detection image for explaining the embodiment of the present invention 本発明の実施形態説明のための合成画像イメージComposite image for explaining the embodiment of the present invention

符号の説明Explanation of symbols

10 撮影レンズ
12 シャッター
14 撮像素子
16 A/D変換器
18 タイミング発生回路
20 信号処理回路
22 メモリ制御回路
24 画像表示メモリ
26 D/A変換器
28 画像表示部
30 メモリ
32 画像圧縮・伸長回路
40 露光制御手段
42 測距制御手段
44 ズーム制御手段
48 フラッシュ
50 システム制御回路
51 画像処理手段
52 メモリ
54 表示部
56 不揮発性メモリ
60 モードダイアルスイッチ
62 シャッタースイッチSW1
64 シャッタースイッチSW2
66 画像表示ON/OFFスイッチ
68 クイックレビューON/OFFスイッチ
70 操作部
80 電源制御手段
82 コネクタ
84 コネクタ
86 電源手段
90 インタフェース
92 コネクタ
94 インタフェース
96 コネクタ
98 記録媒体着脱検知手段
100 画像処理装置
104 光学ファインダ
110 通信手段
112 コネクタ(またはアンテナ)
120 ゲインアンプ
121 計時部
122 露出演算手段
123 輝度レベル演算手段
124 補正ゲイン演算手段
200 記録媒体
202 記録部
204 インタフェース
206 コネクタ
210 記録媒体
212 記録部
214 インタフェース
216 コネクタ
DESCRIPTION OF SYMBOLS 10 Shooting lens 12 Shutter 14 Image pick-up element 16 A / D converter 18 Timing generation circuit 20 Signal processing circuit 22 Memory control circuit 24 Image display memory 26 D / A converter 28 Image display part 30 Memory 32 Image compression / expansion circuit 40 Exposure Control means 42 Distance measurement control means 44 Zoom control means 48 Flash 50 System control circuit 51 Image processing means 52 Memory 54 Display unit 56 Non-volatile memory 60 Mode dial switch 62 Shutter switch SW1
64 Shutter switch SW2
66 Image display ON / OFF switch 68 Quick review ON / OFF switch 70 Operation unit 80 Power supply control means 82 Connector 84 Connector 86 Power supply means 90 Interface 92 Connector 94 Interface 96 Connector 98 Recording medium attachment / detachment detection means 100 Image processing apparatus 104 Optical viewfinder 110 Communication means 112 Connector (or antenna)
DESCRIPTION OF SYMBOLS 120 Gain amplifier 121 Time measuring part 122 Exposure calculating means 123 Brightness level calculating means 124 Correction gain calculating means 200 Recording medium 202 Recording part 204 Interface 206 Connector 210 Recording medium 212 Recording part 214 Interface 216 Connector

Claims (18)

顔検出手段と、台形検出手段と、前記台形検出手段により検出された台形の中の、文字や模様の無い空き領域を検出する空き領域検出手段と、前記顔検出手段により検出した顔部分を画像内に配置する顔画像配置手段と、顔写真入り書類作成を指示する顔写真入り書類作成指示手段を備えた画像処理装置において、
顔部分と台形部分を含む一つの画像データに対して前記顔写真入り書類作成指示手段が操作されたとき、前記顔検出手段により顔画像部分を検出し、前記台形検出手段により台形部分を検出し、前記空き領域検出手段により前記台形部分の空き領域を検出し、前記顔画像配置手段により前記空き領域に前記顔画像部分を配置して新たな画像データを作成することを特徴とする画像処理装置。
A face detection means, a trapezoid detection means, an empty area detection means for detecting an empty area without a character or a pattern in the trapezoid detected by the trapezoid detection means, and an image of the face portion detected by the face detection means In an image processing apparatus provided with a face image placement means to be placed inside, and a face photo containing document creation instruction means for instructing creation of a face photo containing document,
When the face-photographed document creation instruction unit is operated for one image data including a face part and a trapezoid part, the face detection part is detected by the face detection part, and the trapezoid part is detected by the trapezoid detection part. An image processing apparatus, wherein the empty area detecting means detects an empty area of the trapezoidal portion, and the face image arranging means arranges the face image portion in the empty area to create new image data. .
検出した台形部分を長方形に補正する台形補正手段を備え、前記新たな画像データの台形部分に前記台形補正手段を用いて台形補正を施すことを特徴とする、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a trapezoid correcting unit that corrects the detected trapezoidal part into a rectangle, and performing trapezoidal correction on the trapezoidal part of the new image data using the trapezoid correcting unit. . 検出した台形部分の直線部分の歪みを補正する歪み補正手段を備え、前記新たな画像データの台形部分の直線部分の歪みに前記歪み補正手段を用いて歪み補正を施すことを特徴とする、請求項1に記載の画像処理装置。   Distortion correction means for correcting the distortion of the detected straight part of the trapezoidal part, and distortion correction is performed on the distortion of the straight part of the trapezoidal part of the new image data using the distortion correction means. Item 8. The image processing apparatus according to Item 1. 歪み補正手段とは、前記台形検出手段により検出された台形部分を構成する直製部分の直線性に基づき、歪みと判断される部分を台形部分内の周辺色により塗りつぶすものであることを特徴とする、請求項3に記載の画像処理装置。   The distortion correction means is characterized in that the part determined to be a distortion is filled with the peripheral color in the trapezoidal part based on the linearity of the directly manufactured part constituting the trapezoidal part detected by the trapezoidal detection means. The image processing apparatus according to claim 3. 歪み補正手段とは、前記台形検出手段により検出された台形部分の淵部分から一定領域を切り捨てるものであることを特徴とする、請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the distortion correcting unit is a unit that cuts out a certain region from a heel portion of the trapezoidal portion detected by the trapezoid detecting unit. 顔として検出した特長点間の距離に基づき、顔全体が入る適切な領域を自動で選択し、顔画像として抽出することを特徴とする、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein an appropriate region in which the entire face enters is automatically selected based on a distance between feature points detected as a face and extracted as a face image. 空き領域検出手段とは、白い領域を検索する方法により空き領域を検出するものであることを特徴とする、請求項1に記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein the free area detecting means detects a free area by a method of searching for a white area. 空き領域検出手段とは、コントラストが小さい領域を検索する方法により空き領域を検出するものであることを特徴とする、請求項1に記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein the vacant area detecting means detects a vacant area by a method of searching for an area having a low contrast. 空き領域検出手段により検出された複数の空き領域を、前記台形部分内のどの部分に位置するかにより順位付けし、顔写真を配置する位置を決定することを特徴とする、請求項1に記載の画像処理装置。   The plurality of empty areas detected by the empty area detecting means are ranked according to which part in the trapezoidal part is located, and the position where the face photograph is arranged is determined. Image processing apparatus. 空き領域検出手段により検出された複数の空き領域を、空き領域の広さにより順位付けし、顔画像を配置する位置を決定することを特徴とする、請求項1に記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein a plurality of empty areas detected by the empty area detecting means are ranked according to the size of the empty areas, and a position where the face image is arranged is determined. 空き領域検出手段により検出された複数の空き領域を、空き領域の広さと形状により順位付けし、顔画像を配置する位置を決定することを特徴とする、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a plurality of empty areas detected by the empty area detecting means are ranked according to the size and shape of the empty areas, and a position where the face image is arranged is determined. 空き領域検出手段により検出された空き領域の中から決定された顔写真を配置する位置の領域の広さに基づき、埋め込む顔画像を適切な大きさにリサイズした上で配置することを特徴とする、請求項1に記載の画像処理装置。   The embedding face image is resized to an appropriate size and arranged based on the size of the area where the face photograph determined from the empty area detected by the empty area detecting means is arranged. The image processing apparatus according to claim 1. 新たな画像データの台形部分の低コントラスト領域を白で塗りつぶすことを特徴とする、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a low-contrast area of a trapezoidal portion of new image data is painted in white. 新たな画像データの台形部分の低コントラスト領域を、前記台形部分の最も広い領域を占める色で塗りつぶすことを特徴とする、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a low-contrast area of a trapezoidal part of new image data is painted with a color that occupies the widest area of the trapezoidal part. 文字認識手段を備え、前記文字認識手段により前記台形部分内の文字を認識し、前記空き領域検出手段により適切な領域が検出できなかった場合、前記認識した文字を切り抜き、再度前記空き領域検出手段を用いて空き領域を検出し、再検出された空き領域の適切な位置1に前記切り抜いた文字を配置し、残る空き領域の適切な位置2に顔画像を配置することを特徴とする、請求項1に記載の画像処理装置。   A character recognizing unit for recognizing the character in the trapezoidal portion by the character recognizing unit, and cutting out the recognized character when the free region detecting unit cannot detect an appropriate region, and again the free region detecting unit An empty area is detected using the character, the clipped character is arranged at an appropriate position 1 of the re-detected empty area, and a face image is arranged at an appropriate position 2 of the remaining empty area. Item 8. The image processing apparatus according to Item 1. ライブ画を表示する画像表示装置と、顔画像入り書類作成用画像撮影モードと、前記モードの選択手段を備えたデジタルカメラにおいて、前記選択手段が操作されたとき、顔画像入り書類作成用画像撮影モードとなり、顔を配置するべき領域と書類を配置するべき領域を前記画像表示装置に図形で表示することを特徴とするデジタルカメラ。   In a digital camera equipped with an image display device for displaying a live image, an image shooting mode for creating a document containing face images, and a selection unit for the mode, the image shooting for creating a document containing face images is performed when the selection unit is operated. A digital camera which is in a mode and displays a region on which a face is to be placed and a region on which a document is to be placed on the image display device in a graphic form. 前記顔画像入り書類作成用画像撮影モードにおいて、顔を配置するべき領域と書類を配置するべき領域で、それぞれ適切なホワイトバランス処理を施すことを特徴とする、請求項16に記載のデジタルカメラ。   The digital camera according to claim 16, wherein in the image shooting mode for creating a document with a face image, appropriate white balance processing is performed in each of a region where a face is to be placed and a region where a document is to be placed. 前記顔画像入り書類作成用画像撮影モードにおいて、顔を配置するべき領域にAF、AE、AWBを合わせての撮影と、書類を配置するべき領域にAF、AE、AWBを合わせての撮影を連続して行い、両画像を繋ぎ合わせて一枚の顔画像入り書類作成用画像を作成することを特徴とする、請求項16に記載のデジタルカメラ。   In the image capturing mode for creating a document with face image, continuous shooting is performed with AF, AE, AWB in the area where the face is to be placed, and AF, AE, AWB is combined in the area in which the document is to be placed. The digital camera according to claim 16, wherein both images are joined together to create a single face image-containing document creation image.
JP2006161042A 2006-06-09 2006-06-09 Image processing apparatus and digital camera Withdrawn JP2007328694A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006161042A JP2007328694A (en) 2006-06-09 2006-06-09 Image processing apparatus and digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006161042A JP2007328694A (en) 2006-06-09 2006-06-09 Image processing apparatus and digital camera

Publications (1)

Publication Number Publication Date
JP2007328694A true JP2007328694A (en) 2007-12-20

Family

ID=38929097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006161042A Withdrawn JP2007328694A (en) 2006-06-09 2006-06-09 Image processing apparatus and digital camera

Country Status (1)

Country Link
JP (1) JP2007328694A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211643A (en) * 2009-03-11 2010-09-24 Toshiba Corp Image processor
JP2011135400A (en) * 2009-12-25 2011-07-07 Casio Computer Co Ltd Image processing apparatus and method, and program
JP2017092912A (en) * 2015-11-17 2017-05-25 キヤノン株式会社 Image processing device and image processing method
JP2017208730A (en) * 2016-05-19 2017-11-24 大日本印刷株式会社 Certificate photograph taking apparatus and certificate photograph taking method
US10198796B2 (en) 2015-09-14 2019-02-05 Olympus Corporation Information processing apparatus, control method of information processing apparatus, and non-transitory storage medium storing information processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211643A (en) * 2009-03-11 2010-09-24 Toshiba Corp Image processor
JP2011135400A (en) * 2009-12-25 2011-07-07 Casio Computer Co Ltd Image processing apparatus and method, and program
US8345119B2 (en) 2009-12-25 2013-01-01 Casio Computer Co., Ltd. Image pickup device, image processing method, and storage medium storing program
US8787675B2 (en) 2009-12-25 2014-07-22 Casio Computer Co., Ltd. Image pickup device, image processing method, and storage medium storing program
US10198796B2 (en) 2015-09-14 2019-02-05 Olympus Corporation Information processing apparatus, control method of information processing apparatus, and non-transitory storage medium storing information processing program
JP2017092912A (en) * 2015-11-17 2017-05-25 キヤノン株式会社 Image processing device and image processing method
JP2017208730A (en) * 2016-05-19 2017-11-24 大日本印刷株式会社 Certificate photograph taking apparatus and certificate photograph taking method

Similar Documents

Publication Publication Date Title
US7538308B2 (en) Image processing apparatus and control method thereof
US7750968B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2005176136A (en) Image processor, image reproducing method, program and recording medium
JP2009177365A (en) Electronic equipment, and control method, and program thereof
JP2009177359A (en) Image editing device, image editing method and program
JP2007081732A (en) Imaging apparatus
JP2007328694A (en) Image processing apparatus and digital camera
JP4533017B2 (en) Imaging device
JP2009044444A (en) Imaging apparatus, its white balance control method, program and storage medium
US7778429B2 (en) Audio processor, audio processing method, computer program, and computer readable storage medium
JP4498169B2 (en) Image processing apparatus and control method thereof
JP2005221771A (en) Imaging device and function display method
JP2003274366A (en) Image processor, image processing method, program, and recording medium
JP2009177358A (en) Image processor, image processing method, and program
JP2008072524A (en) Information processor, control method, program, and storage medium
JP4574426B2 (en) Data processing apparatus and data processing method
JP5111215B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4667251B2 (en) Imaging apparatus and white balance control method
JP2009043169A (en) Image processor, and image processing method and program
JP4717762B2 (en) Image reproducing apparatus, control method for image reproducing apparatus, program, and recording medium
JP2008060844A (en) Image processor and image processing method
JP2006086840A (en) Image processor
JP4857358B2 (en) Sound processing apparatus, imaging apparatus, sound processing method, computer program, and computer-readable storage medium
JP2008124900A (en) Image processing apparatus
JP2011130198A (en) Imaging apparatus, control method thereof and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090901