JP2007328694A - Image processing apparatus and digital camera - Google Patents
Image processing apparatus and digital camera Download PDFInfo
- Publication number
- JP2007328694A JP2007328694A JP2006161042A JP2006161042A JP2007328694A JP 2007328694 A JP2007328694 A JP 2007328694A JP 2006161042 A JP2006161042 A JP 2006161042A JP 2006161042 A JP2006161042 A JP 2006161042A JP 2007328694 A JP2007328694 A JP 2007328694A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- area
- processing apparatus
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 30
- 238000012937 correction Methods 0.000 claims description 23
- 230000002093 peripheral effect Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 239000000203 mixture Substances 0.000 description 9
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000006837 decompression Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000012552 review Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 201000005111 ocular hyperemia Diseases 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Abstract
Description
本発明は、デジタルカメラなどの画像処理装置における、文字情報を含む画像データに対する処理に関する。 The present invention relates to processing for image data including character information in an image processing apparatus such as a digital camera.
従来の技術には、画像データのうち、文字を示す画像データを認識して文字データを生成し、他の画像データを重ね合わせることで顔写真付きの名刺などを容易に作成するものがある(例えば、特許文献1参照)。
特許文献1に記載の技術おいては、顔写真付き名刺を作成する際、文字を示す画像データと、そこに重ね合わせる画像データがそれぞれ必要であり、また重ね合わせる画像データに対しては拡大/縮小処理しか行われず、撮影の時点で適切な構図で撮影されている必要があった。
In the technique described in
上述の課題を解決する本発明に係る第一の構成は画像処理装置であって、顔検出手段と、台形検出手段と、前記台形検出手段により検出された台形の中の、文字や模様の無い空き領域を検出する空き領域検出手段と、前記顔検出手段により検出した顔部分を画像内に配置する顔画像配置手段と、顔写真入り書類作成を指示する顔写真入り書類作成指示手段を備えた画像処理装置において、顔部分と台形部分を含む一つの画像データに対して前記顔写真入り書類作成指示手段が操作されたとき、前記顔検出手段により顔画像部分を検出し、前記台形検出手段により台形部分を検出し、前記空き領域検出手段により前記台形部分の空き領域を検出し、前記顔画像配置手段により前記空き領域に前記顔画像部分を配置して新たな画像データを作成することを特徴とするものである。(請求項1)
本発明に係る第二の構成は、前記第一の構成における、検出した台形部分を長方形に補正する台形補正手段を備え、前記新たな画像データの台形部分に前記台形補正手段を用いて台形補正を施すことを特徴とするものである。(請求項2)
本発明に係る第三の構成は、前記第一の構成における、検出した台形部分の直線部分の歪みを補正する歪み補正手段を備え、前記新たな画像データの台形部分の直線部分の歪みに前記歪み補正手段を用いて歪み補正を施すことを特徴とするものである。(請求項3)
本発明に係る第四の構成は、前記第三の構成における、歪み補正手段とは、前記台形検出手段により検出された台形部分を構成する直製部分の直線性に基づき、歪みと判断される部分を台形部分内の周辺色により塗りつぶすものであることを特徴とするものである。(請求項4)
本発明に係る第五の構成は、前記第三の構成における、歪み補正手段とは、前記台形検出手段により検出された台形部分の淵部分から一定領域を切り捨てるものであることを特徴とするものである。(請求項5)
本発明に係る第六の構成は、前記第一の構成における、顔として検出した特長点間の距離に基づき、顔全体が入る適切な領域を自動で選択し、顔画像として抽出することを特徴とするものである。(請求項6)
本発明に係る第七の構成は、前記第一の構成における、空き領域検出手段とは、白い領域を検索する方法により空き領域を検出するものであることを特徴とするものである。(請求項7)
本発明に係る第八の構成は、前記第一の構成における、空き領域検出手段とは、コントラストが小さい領域を検索する方法により空き領域を検出するものであることを特徴とするものである。(請求項8)
本発明に係る第九の構成は、前記第一の構成における、空き領域検出手段により検出された複数の空き領域を、前記台形部分内のどの部分に位置するかにより順位付けし、顔写真を配置する位置を決定することを特徴とするものである。(請求項9)
本発明に係る第十の構成は、前記第一の構成における、空き領域検出手段により検出された複数の空き領域を、空き領域の広さにより順位付けし、顔画像を配置する位置を決定することを特徴とするものである。(請求項10)
本発明に係る第十一の構成は、前記第一の構成における、空き領域検出手段により検出された複数の空き領域を、空き領域の広さと形状により順位付けし、顔画像を配置する位置を決定することを特徴とするものである。(請求項11)
本発明に係る第十二の構成は、前記第一の構成における、空き領域検出手段により検出された空き領域の中から決定された顔写真を配置する位置の領域の広さに基づき、埋め込む顔画像を適切な大きさにリサイズした上で配置することを特徴とするものである。(請求項12)
本発明に係る第十三の構成は、前記第一の構成における、新たな画像データの台形部分の低コントラスト領域を白で塗りつぶすことを特徴とするものである。(請求項13)
本発明に係る第十四の構成は、前記第一の構成における、新たな画像データの台形部分の低コントラスト領域を、前記台形部分の最も広い領域を占める色で塗りつぶすことを特徴とするものである。(請求項14)
本発明に係る第十五の構成は、前記第一の構成における、文字認識手段を備え、前記文字認識手段により前記台形部分内の文字を認識し、前記空き領域検出手段により適切な領域が検出できなかった場合、前記認識した文字を切り抜き、再度前記空き領域検出手段を用いて空き領域を検出し、再検出された空き領域の適切な位置1に前記切り抜いた文字を配置し、残る空き領域の適切な位置2に顔画像を配置することを特徴とするものである。(請求項15)
本発明に係る第十六の構成は、デジタルカメラにおいて、ライブ画を表示する画像表示装置と、顔画像入り書類作成用画像撮影モードと、前記モードの選択手段を備えたデジタルカメラにおいて、前記選択手段が操作されたとき、顔画像入り書類作成用画像撮影モードとなり、顔を配置するべき領域と書類を配置するべき領域を前記画像表示装置に図形で表示することを特徴とするものである。(請求項16)
本発明に係る第十七の構成は、前記第十六の構成における、前記顔画像入り書類作成用画像撮影モードにおいて、顔を配置するべき領域と書類を配置するべき領域で、それぞれ適切なホワイトバランス処理を施すことを特徴とするものである。(請求項17)
本発明に係る第十八の構成は、前記第十六の構成における、前記顔画像入り書類作成用画像撮影モードにおいて、顔を配置するべき領域にAF、AE、AWBを合わせての撮影と、書類を配置するべき領域にAF、AE、AWBを合わせての撮影を連続して行い、両画像を繋ぎ合わせて一枚の顔画像入り書類作成用画像を作成することを特徴とするものである。(請求項18)
A first configuration according to the present invention that solves the above-described problems is an image processing apparatus, which has no characters or patterns in a face detection means, a trapezoid detection means, and a trapezoid detected by the trapezoid detection means. An empty area detecting means for detecting an empty area, a face image arranging means for arranging the face portion detected by the face detecting means in an image, and a face photo-containing document creation instruction means for instructing creation of a face photo-containing document. In the image processing apparatus, when the face-photographed document creation instruction unit is operated for one image data including a face part and a trapezoid part, the face detection part is detected by the face detection part, and the trapezoid detection part is used. A trapezoidal part is detected, a free area of the trapezoidal part is detected by the empty area detecting means, and the face image part is arranged in the empty area by the face image arranging means to create new image data. It is characterized in. (Claim 1)
A second configuration according to the present invention includes a trapezoid correction unit that corrects the detected trapezoidal portion to a rectangle in the first configuration, and uses the trapezoid correction unit for the trapezoidal portion of the new image data. It is characterized by giving. (Claim 2)
A third configuration according to the present invention includes a distortion correction unit that corrects the distortion of the detected linear portion of the trapezoidal portion in the first configuration, and the distortion of the linear portion of the trapezoidal portion of the new image data is Distortion correction is performed using a distortion correction means. (Claim 3)
According to a fourth configuration of the present invention, the distortion correction means in the third configuration is determined to be distortion based on the linearity of the directly manufactured part constituting the trapezoidal part detected by the trapezoid detection means. It is characterized in that the portion is filled with the peripheral color in the trapezoidal portion. (Claim 4)
According to a fifth configuration of the present invention, the distortion correction means in the third configuration is characterized in that a certain region is cut off from the heel portion of the trapezoidal part detected by the trapezoid detection means. It is. (Claim 5)
According to a sixth configuration of the present invention, in the first configuration, based on the distance between feature points detected as a face, an appropriate region where the entire face enters is automatically selected and extracted as a face image. It is what. (Claim 6)
According to a seventh configuration of the present invention, in the first configuration, the free area detecting means detects a free area by a method for searching for a white area. (Claim 7)
An eighth configuration according to the present invention is characterized in that, in the first configuration, the vacant region detecting means detects a vacant region by a method of searching for a region having a low contrast. (Claim 8)
According to a ninth configuration of the present invention, the plurality of vacant areas detected by the vacant area detecting means in the first configuration are ranked according to which part in the trapezoidal part is located, The position to be arranged is determined. (Claim 9)
In a tenth configuration according to the present invention, the plurality of empty regions detected by the empty region detecting means in the first configuration are ranked according to the size of the empty regions, and the position where the face image is arranged is determined. It is characterized by this. (Claim 10)
In an eleventh configuration according to the present invention, the plurality of empty areas detected by the empty area detecting means in the first configuration are ranked according to the size and shape of the empty areas, and the positions where the face images are arranged are determined. It is characterized by determining. (Claim 11)
According to a twelfth aspect of the present invention, there is provided a face to be embedded based on the size of the area where the face photograph determined from the empty area detected by the empty area detecting means in the first structure is arranged. The image is arranged after being resized to an appropriate size. (Claim 12)
A thirteenth configuration according to the present invention is characterized in that, in the first configuration, the low-contrast region of the trapezoidal portion of the new image data is painted in white. (Claim 13)
A fourteenth configuration according to the present invention is characterized in that, in the first configuration, the low-contrast region of the trapezoidal portion of the new image data is filled with a color that occupies the widest region of the trapezoidal portion. is there. (Claim 14)
According to a fifteenth aspect of the present invention, there is provided the character recognition means in the first structure, wherein the character recognition means recognizes a character in the trapezoidal portion, and an appropriate area is detected by the empty area detection means. If not, the recognized character is cut out, the empty area is detected again using the empty area detecting means, the cut character is arranged at an
According to a sixteenth aspect of the present invention, in the digital camera, the digital camera includes an image display device that displays a live image, an image shooting mode for creating a document containing a face image, and a selection unit for the mode. When the means is operated, the image capturing mode for creating a document containing a face image is set, and the area where the face is to be arranged and the area where the document is to be arranged are displayed in a graphic form on the image display device. (Claim 16)
According to a seventeenth configuration of the present invention, in the sixteenth configuration, in the image capturing mode for creating a face image-containing document, an area in which a face is to be placed and an area in which a document is to be placed are respectively appropriate white. The balance processing is performed. (Claim 17)
According to an eighteenth configuration of the present invention, in the sixteenth configuration, in the image capturing mode for creating a face image-containing document, shooting in which AF, AE, and AWB are combined in a region where a face is to be arranged; It is characterized in that AF, AE, and AWB are continuously photographed in a region where a document is to be arranged, and both images are connected to create a single document image containing a face image. . (Claim 18)
本発明に拠れば、例えば名刺を保持した姿勢の人物を撮影した画像に対し、前記顔写真入り書類作成指示手段を操作する作業のみによって、顔写真付き名刺データを生成することができる。 According to the present invention, for example, business card data with a face photo can be generated only by manipulating the face photo-containing document creation instructing means for an image obtained by photographing a person in a posture holding a business card.
次に、本発明の詳細を実施例の記述に従って説明する。 Next, details of the present invention will be described in accordance with the description of the embodiments.
図1は、本発明の実施形態に係る画像処理装置の概略構成を示すブロック図である。図1において、100は画像処理装置である。10は撮影レンズ、12は絞り機能を備えるシャッター、14は光学像を電気信号に変換する撮像素子、120は撮像素子14のアナログ信号出力を増幅してカメラの感度を設定するゲインアンプ、16は撮像素子14のアナログ信号出力をディジタル信号に変換するA/D変換器である。
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention. In FIG. 1,
18は撮像素子14、A/D変換器16、D/A変換器26にクロック信号や制御信号を供給するタイミング発生回路であり、メモリ制御回路22及びシステム制御回路50により制御される。20は信号処理回路であり、A/D変換器16からのデータ或いはメモリ制御回路22からのデータに対して所定の画素補間処理や色変換処理を行う。また、撮像した画像データを用いて所定の演算処理を行ない、得られた演算結果に基づいてシステム制御回路50が露光制御手段40、測距制御手段42に対して制御を行なう、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行っている。 A timing generation circuit 18 supplies a clock signal and a control signal to the image sensor 14, the A / D converter 16, and the D / A converter 26, and is controlled by the memory control circuit 22 and the system control circuit 50. A signal processing circuit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D converter 16 or the data from the memory control circuit 22. Further, a predetermined calculation process is performed using the captured image data, and the system control circuit 50 controls the exposure control unit 40 and the distance measurement control unit 42 based on the obtained calculation result. The lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing are performed.
さらに、信号処理回路20においては、撮像した画像データを用いて所定の演算処理を行ない、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。 Further, the signal processing circuit 20 performs predetermined arithmetic processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.
22はメモリ制御回路であり、A/D変換器16、タイミング発生回路18、信号処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮・伸長回路32を制御する。A/D変換器16のデータが信号処理回路20、メモリ制御回路22を介して、或いはA/D変換器16のデータが直接メモリ制御回路22を介して、画像表示メモリ24或いはメモリ30に書き込まれる。 A memory control circuit 22 controls the A / D converter 16, the timing generation circuit 18, the signal processing circuit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression circuit 32. The data of the A / D converter 16 is written to the image display memory 24 or the memory 30 via the signal processing circuit 20 and the memory control circuit 22 or the data of the A / D converter 16 is directly passed through the memory control circuit 22. It is.
51は画像処理部であり、操作部70により指示された動作指示に従い、メモリ30から読み出した画像データに対して顔検出、台形領域検出、台形補正、文字認識などの処理、および、ある画像データに対して別の画像データを埋め込む画像合成などの処理を行う。 Reference numeral 51 denotes an image processing unit, which performs processing such as face detection, trapezoid area detection, keystone correction, and character recognition on image data read from the memory 30 in accordance with an operation instruction instructed by the operation unit 70, and certain image data Then, processing such as image composition for embedding another image data is performed.
システム制御回路50は露出制御手段122、輝度レベル演算手段123、補正ゲイン演算手段124を含み、122はメモリ制御回路22を介してTTLによって測光された輝度レベルを基に適正露出値を演算し露光制御手段40を制御する。123はメモリ制御回路22を介して撮像した画像データから輝度レベルを演算し、124は122によって測光された輝度レベルと123によって演算された輝度レベルを比較し適正レベルとなるよう補正値を演算して信号処理回路20によりデジタルゲイン補正を加える。
The system control circuit 50 includes an exposure control means 122, a brightness level calculation means 123, and a correction gain calculation means 124. 122 calculates an appropriate exposure value based on the brightness level measured by the TTL via the memory control circuit 22, and exposes it. Control means 40 is controlled. 123 calculates the luminance level from the image data captured through the
24は画像表示メモリ、26はD/A変換器、28はTFT LCD等から成る画像表示部であり、画像表示メモリ24に書き込まれた表示用の画像データはD/A変換器26を介して画像表示部28により表示される。画像表示部28を用いて撮像した画像データを逐次表示すれば、電子ファインダ機能を実現することが可能である。 Reference numeral 24 denotes an image display memory, 26 denotes a D / A converter, 28 denotes an image display unit including a TFT LCD, and the image data for display written in the image display memory 24 passes through the D / A converter 26. Displayed by the image display unit 28. If the image data captured using the image display unit 28 is sequentially displayed, the electronic viewfinder function can be realized.
また、画像表示部28は、システム制御回路50の指示により任意に表示をON/OFFすることが可能である。30は撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を連続して撮影する連写撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。また、メモリ30はシステム制御回路50の作業領域としても使用することが可能である。 Further, the image display unit 28 can arbitrarily turn on / off the display according to an instruction from the system control circuit 50. Reference numeral 30 denotes a memory for storing captured still images and moving images, and has a sufficient storage capacity to store a predetermined number of still images and a predetermined time of moving images. This makes it possible to write a large amount of images to the memory 30 at high speed even in continuous shooting or panoramic shooting in which a plurality of still images are continuously shot. The memory 30 can also be used as a work area for the system control circuit 50.
32は適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する圧縮・伸長回路であり、メモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。40は絞り機能を備えるシャッター12を制御する露光制御手段であり、フラッシュ48と連携することによりフラッシュ調光機能も有するものである。
Reference numeral 32 denotes a compression / decompression circuit that compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like, reads an image stored in the memory 30, performs compression processing or decompression processing, and stores the processed data in the memory 30. Write to. Reference numeral 40 denotes an exposure control means for controlling the
42は撮影レンズ10のフォーカシングを制御する測距制御手段、44は撮影レンズ10のズーミングを制御するズーム制御手段である。 Reference numeral 42 denotes distance measurement control means for controlling the focusing of the photographing lens 10, and reference numeral 44 denotes zoom control means for controlling the zooming of the photographing lens 10.
露光制御手段40、測距制御手段42はTTL方式を用いて制御されており、撮像した画像データを信号処理回路20によって演算した演算結果に基づき、システム制御回路50が露光制御手段40、測距制御手段42に対して制御を行う。50は画像処理装置100全体を制御するシステム制御回路、52はシステム制御回路50の動作用の定数、変数、プログラム等を記憶するメモリである。
The exposure control means 40 and the distance measurement control means 42 are controlled using the TTL method. Based on the calculation result obtained by calculating the captured image data by the signal processing circuit 20, the system control circuit 50 performs the exposure control means 40 and the distance measurement. Control is performed on the control means 42. Reference numeral 50 denotes a system control circuit that controls the entire
54はシステム制御回路50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する液晶表示装置、スピーカー等の表示部であり、画像処理装置100の操作部近辺の視認し易い位置に単数或いは複数個所設置され、例えばLCDやLED、発音素子等の組み合わせにより構成されている。また、表示部54は、その一部の機能が光学ファインダ104内に設置されている。 Reference numeral 54 denotes a display unit such as a liquid crystal display device or a speaker that displays an operation state or a message using characters, images, sounds, or the like in accordance with execution of a program in the system control circuit 50. One or a plurality of places are provided near the portion where they can be easily seen, and for example, a combination of an LCD, an LED, a sound generation element, and the like is used. The display unit 54 has a part of its function installed in the optical viewfinder 104.
表示部54の表示内容のうち、LCD等に表示するものとしては、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示、シャッタースピード表示、絞り値表示、露出補正表示、フラッシュ表示、赤目緩和表示、マクロ撮影表示、ブザー設定表示、時計用電池残量表示、電池残量表示、エラー表示、複数桁の数字による情報表示、記録媒体200及び210の着脱状態表示、通信I/F動作表示、日付け・時刻表示、等がある。
Among the display contents of the display unit 54, what is displayed on the LCD or the like includes single shot / continuous shooting display, self-timer display, compression rate display, number of recorded pixels, number of recorded pixels, number of remaining images that can be captured, shutter Speed display, Aperture value display, Exposure compensation display, Flash display, Red-eye reduction display, Macro shooting display, Buzzer setting display, Clock battery level display, Battery level display, Error display, Multi-digit number information display and recording There are a display state of the
また、表示部54の表示内容のうち、光学ファインダ104内に表示するものとしては、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示、等がある。56は電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。 Among the display contents of the display unit 54, what is displayed in the optical viewfinder 104 includes in-focus display, camera shake warning display, flash charge display, shutter speed display, aperture value display, exposure correction display, and the like. Reference numeral 56 denotes an electrically erasable / recordable nonvolatile memory, such as an EEPROM.
62、64、66、68及び70は、システム制御回路50の各種の動作指示を入力するための操作手段であり、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。ここで、これらの操作手段の具体的な説明を行う。 Reference numerals 62, 64, 66, 68 and 70 are operation means for inputting various operation instructions of the system control circuit 50, and include one or a plurality of switches, dials, touch panels, pointing by line-of-sight detection, voice recognition devices, and the like. Composed of a combination. Here, a specific description of these operating means will be given.
62はシャッタースイッチSW1で、不図示のシャッタースイッチの操作途中でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を指示する。64はシャッタースイッチSW2で、不図示のシャッタースイッチの操作完了でONとなり、撮像素子12から読み出した信号をA/D変換器16、メモリ制御回路22を介してメモリ30に画像データを書き込む露光処理、信号処理回路20やメモリ制御回路22での演算を用いた現像処理、メモリ30から画像データを読み出し、圧縮・伸長回路32で圧縮を行い、記録媒体200或いは210に画像データを書き込む記録処理という一連の処理の動作開始を指示する。
Reference numeral 62 denotes a shutter switch SW1, which is turned ON during the operation of a shutter switch (not shown), and performs AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, EF (flash pre-flash) processing, and the like. Instruct to start operation. Reference numeral 64 denotes a shutter switch SW2, which is turned on when the operation of a shutter switch (not shown) is completed, and an exposure process for writing a signal read from the
66は画像表示ON/OFFスイッチで、画像表示部28のON/OFFを設定することが出来る。この機能により、光学ファインダ104を用いて撮影を行う際に、TFT LCD等から成る画像表示部への電流供給を遮断することにより、省電力を図ることが可能となる。 Reference numeral 66 denotes an image display ON / OFF switch, which can set ON / OFF of the image display unit 28. With this function, when photographing using the optical viewfinder 104, it is possible to save power by cutting off the current supply to the image display unit including a TFT LCD or the like.
68はクイックレビューON/OFFスイッチで、撮影直後に撮影した画像データを自動再生するクイックレビュー機能を設定する。なお、本実施形態では特に、画像表示部28をOFFとした場合におけるクイックレビュー機能の設定をする機能を備えるものとする。また、121は計時部で、シャッタースイッチ62が押されてからシャッタースイッチ64が押されるまでの時間を計測することが可能である。 Reference numeral 68 denotes a quick review ON / OFF switch, which sets a quick review function for automatically reproducing image data taken immediately after photographing. In the present embodiment, in particular, a function for setting a quick review function when the image display unit 28 is turned off is provided. Reference numeral 121 denotes a timing unit that can measure the time from when the shutter switch 62 is pressed until the shutter switch 64 is pressed.
70は各種ボタンやタッチパネル等からなる操作部で、メニューボタン、セットボタン、マクロボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等がある。 Reference numeral 70 denotes an operation unit including various buttons, a touch panel, and the like. A menu button, a set button, a macro button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, a menu movement + (plus) button, a menu movement − (minus). ) Button, playback image move + (plus) button, playback image-(minus) button, shooting image quality selection button, exposure correction button, date / time setting button, and the like.
80は電源制御手段で、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びシステム制御回路50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。 80 is a power control means, which is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, etc., and detects the presence / absence of a battery, the type of battery, the remaining battery level, and the detection result In addition, the DC-DC converter is controlled based on an instruction from the system control circuit 50, and a necessary voltage is supplied to each part including the recording medium for a necessary period.
82はコネクタ、84はコネクタ、86はアルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる電源手段である。 Reference numeral 82 denotes a connector, 84 denotes a connector, and 86 denotes a power source means including a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter.
90及び94はメモリカードやハードディスク等の記録媒体とのインタフェース、92及び96はメモリカードやハードディスク等の記録媒体と接続を行うコネクタ、98はコネクタ92及び或いは96に記録媒体200或いは210が装着されているか否かを検知する記録媒体着脱検知手段である。
90 and 94 are interfaces with a recording medium such as a memory card or a hard disk, 92 and 96 are connectors for connecting to a recording medium such as a memory card or a hard disk, and 98 is a
なお、本実施形態では記録媒体を取り付けるインタフェース及びコネクタを2系統持つものとして説明している。もちろん、記録媒体を取り付けるインタフェース及びコネクタは、単数或いは複数、いずれの系統数を備える構成としても構わない。また、異なる規格のインタフェース及びコネクタを組み合わせて備える構成としても構わない。インタフェース及びコネクタとしては、PCMCIAカード等の規格に準拠したものを用いて構成して構わない。 In the present embodiment, it is assumed that there are two interfaces and connectors for attaching the recording medium. Of course, the interface and the connector for attaching the recording medium may have a single or a plurality of systems, any number of systems. Moreover, it is good also as a structure provided with combining the interface and connector of a different standard. The interface and connector may be configured using a PCMCIA card compliant standard.
さらに、インタフェース90及び94、そしてコネクタ92及び96をPCMCIAカード等の規格に準拠したものを用いて構成した場合、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード、等の各種通信カードを接続することにより、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことが出来る。 Further, when the interfaces 90 and 94 and the connectors 92 and 96 are configured using a PCMCIA card or the like, LAN card, modem card, USB card, IEEE1394 card, P1284 card, SCSI card, PHS, etc. By connecting various communication cards such as a communication card, image data and management information attached to the image data can be transferred to and from peripheral devices such as other computers and printers.
104は光学ファインダであり、画像表示部28による電子ファインダ機能を使用すること無しに、光学ファインダのみを用いて撮影を行うことが可能である。また、光学ファインダ104内には、表示部54の一部の機能、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示などが設置されている。 Reference numeral 104 denotes an optical viewfinder, which can take an image using only the optical viewfinder without using the electronic viewfinder function of the image display unit 28. In the optical viewfinder 104, some functions of the display unit 54, for example, a focus display, a camera shake warning display, a flash charge display, a shutter speed display, an aperture value display, an exposure correction display, and the like are installed.
110は通信手段で、RS232CやUSB、IEEE1394、P1284、SCSI、モデム、LAN、無線通信、等の各種通信機能を有する。112は通信手段110により画像処理装置100を他の機器と接続するコネクタ或いは無線通信の場合はアンテナである。200はメモリカードやハードディスク等の記録媒体である。
A communication unit 110 has various communication functions such as RS232C, USB, IEEE1394, P1284, SCSI, modem, LAN, and wireless communication. Reference numeral 112 denotes a connector for connecting the
記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、画像処理装置100とのインタフェース204、画像処理装置100と接続を行うコネクタ206を備えている。210はメモリカードやハードディスク等の記録媒体である。記録媒体210は、半導体メモリや磁気ディスク等から構成される記録部212、画像処理装置100とのインタフェース214、画像処理装置100と接続を行うコネクタ216を備えている。
The
図2は、図1における画像処理部51で行われる処理のフローを示すフローチャートである。まず、S201において処理対象である画像データ1(図5)に対して人間の顔を検出する顔検出処理が行われる。S201で顔が一つ検出された場合は、S202に進む。S202では、顔として検出された特長点(目や口)間の距離に基づき、顔全体が入る適切な領域を自動で選択し、画像データ2として切り出す(図6)。このとき自動で選択される領域の、顔の特徴点間の距離に対する大きさは、事前に、ユーザーインターフェース(UI)により使用者が設定可能である。 FIG. 2 is a flowchart showing a flow of processing performed by the image processing unit 51 in FIG. First, in S201, face detection processing for detecting a human face is performed on the image data 1 (FIG. 5) to be processed. If one face is detected in S201, the process proceeds to S202. In S202, based on the distance between feature points (eyes and mouth) detected as a face, an appropriate area where the entire face enters is automatically selected and cut out as image data 2 (FIG. 6). The size of the area automatically selected at this time with respect to the distance between the facial feature points can be set in advance by the user through a user interface (UI).
S201で検出された顔の数が二つ以上であった場合は、フローのS216に進む。S216では、検出された顔の中から一つを選択するUIを動作させて使用者に顔の選択を促し、顔が一つ選択されたらフローのS202に進む。S216で、使用者は、検出された複数の顔の中から一つを選択する以外に、任意の領域を選択することも可能である。S216で複数の顔の中から一つを選択しない場合と、S201で顔を一つも検出することができなかった場合、S217に進む。S217では、使用者が任意の領域を選択できるUIを動作させて領域の選択を促し、任意の領域が選択されたらその領域を画像データ2として切り出し、S203に進む。
If the number of faces detected in S201 is two or more, the process proceeds to S216 of the flow. In S216, the UI for selecting one of the detected faces is operated to prompt the user to select a face, and when one face is selected, the process proceeds to S202 of the flow. In S216, the user can select an arbitrary area other than selecting one of the detected faces. When one face is not selected from the plurality of faces in S216, and when no face is detected in S201, the process proceeds to S217. In S217, the user is prompted to select an area by operating a UI that allows the user to select an arbitrary area. If an arbitrary area is selected, the area is cut out as
S203では、画像データ1に対し、台形領検出処理が行われる(図7)。S203で台形領域が一つ検出された場合は、その領域を画像領域1とし、S204に進む(図8)。S203で二つ以上の台形領域が検出された場合は、その領域の最も大きいものを画像領域1とし、S204に進む。S203で台形領域が検出されなかった場合はS218に進み、使用者が任意の領域を選択できるUIを動作させて領域の選択を促し、任意の長方形領域が選択されたらその領域を画像領域2とし、S205に進む。
In S203, a trapezoidal area detection process is performed on the image data 1 (FIG. 7). If one trapezoid area is detected in S203, that area is set as the
S204では、画像領域1に対して、台形補正処理を施して長方形の画像領域2とし、S205に進む。S205では、画像領域2の周辺部分に含まれている指や指の影を消去するために、画像領域2の歪み補正を施す(図9)。S205で行われる歪み補正は、画像領域2の周辺部分を、画像領域2の最も広い領域を占める色で塗りつぶす、或いは、画像領域2の淵部分から一定領域を切り捨てることによって行われる。S205で歪み補正された画像領域2を画像データ3として切り出し、S206に進む。
In S204, a trapezoidal correction process is performed on the
S206では、画像データ3に対し、画像データ2をリサイズしたものを画像合成するための空き領域検出が行われる(図10)。S206で行われる空き領域検出は、白い領域を検索する、或いは、コントラストが小さい領域を検索することにより行われる。空き領域が一つまたは複数検出された場合は、その領域の広さ、形状、画像データ2の中のどの位置にあるかに基づき、画像合成領域としての適切さの順位付けを行い、最も画像合成領域として適切な領域を画像領域3とする。また空き領域が検出されなかった場合は画像領域3を設定せず、S207に進む。
In S206, free space detection is performed for image synthesis of image data 3 that has been resized from image data 2 (FIG. 10). The empty area detection performed in S206 is performed by searching for a white area or searching for an area with low contrast. When one or more vacant areas are detected, the appropriateness as an image synthesis area is ranked based on the area size, shape, and position in the
S207では、前記画像領域3に基づき、画像合成領域を決定する。S207で行われる画像合成領域選択は、画像領域3が設定されている場合、画像領域3が画像合成に適しているかどうかを判断し、適していると判断した場合はその領域を画像合成領域とし、S208に進む。S207で、画像領域3が画像合成に適していないと判断した場合、S210に進む。S207で行う画像合成に適しているかどうかの判断は、画像領域3の広さに基づき判断する。 In S207, an image composition area is determined based on the image area 3. In the image composition area selection performed in S207, when the image area 3 is set, it is determined whether the image area 3 is suitable for image composition. If it is determined that the image area 3 is suitable, the area is set as the image composition area. , Go to S208. If it is determined in S207 that the image area 3 is not suitable for image composition, the process proceeds to S210. Whether or not it is suitable for the image composition performed in S207 is determined based on the size of the image area 3.
S210では、画像データ3に対し、文字検出処理が行われる。S210で文字が検出された場合、S211に進む。S211では、S210で検出された文字データを切り取り、文字データを切り取った領域を周辺色で塗りつぶし、S212に進む。S212では、S211で切り取った文字データを、元々あった位置から画像領域3を広くする方向に移動させ、再び画像データ3に配置する。このとき、必要に応じて前記文字データを縮小してから再配置する。S212で画像データ3に文字データを再配置したら、S206に進む。S210で文字が検出されなかった場合、S213に進み、使用者が任意の領域を選択できるUIを動作させて領域の選択を促し、任意の領域が選択されたらその領域を画像合成領域とし、S208に進む。 In S210, character detection processing is performed on the image data 3. If a character is detected in S210, the process proceeds to S211. In S211, the character data detected in S210 is cut out, and the area from which the character data has been cut out is painted with a peripheral color, and the process proceeds to S212. In S212, the character data cut out in S211 is moved from the original position in the direction of widening the image area 3, and again arranged in the image data 3. At this time, the character data is reduced and rearranged as necessary. If character data is rearranged in the image data 3 in S212, the process proceeds to S206. If no character is detected in S210, the process proceeds to S213, where the user is prompted to select a region by operating a UI that allows the user to select an arbitrary region. Proceed to
S208では、前記画像合成領域の大きさに基づき、前記画像データ2のリサイズを行う。このとき、図1で示した圧縮伸長32を使用してもよい。S208でリサイズされた画像データ2を画像データ4とし、S209に進む。
In S208, the
S209では、前記画像合成領域に前記画像データ4を合成する処理を行い、合成画像データを作成する(図11)。 In S209, a process of synthesizing the image data 4 in the image synthesis area is performed to create synthesized image data (FIG. 11).
図3は、図1で示した構成の画像処理装置の、画像処理部を動作させるフローの一例を示したフローチャートである。画像処理装置の電源を投入し(S301)、画像を撮影・記録するための撮影モードであった場合は、図1の操作部70を操作して、記録されている画像データを見るための再生モードにする。電源投入時に再生モードになっていた場合は何もしない(S302、S303)。再生モードでは、図1の記録媒体200または210に記録されている画像データが、図1の画像表示部28に表示される。
FIG. 3 is a flowchart showing an example of a flow for operating the image processing unit of the image processing apparatus having the configuration shown in FIG. When the image processing apparatus is turned on (S301) and the shooting mode is for shooting / recording an image, the operation unit 70 in FIG. 1 is operated to reproduce the recorded image data. Enter mode. If the playback mode is set when the power is turned on, nothing is done (S302, S303). In the reproduction mode, the image data recorded on the
図1の操作部70を操作することで、任意の画像を選択する(S304)。選択した画像に対して、削除、通信手段110を使用してのデータ
転送などの処理を選択することが可能である。それらの処理の中から、顔写真入り書類作成処理を選択する(S305)。顔写真入書類作成処理が選択されると、図2でフローを示した画像処理部が動作する。このとき、S304で選択された画像が図2のフローにおける画像データ1である。画像処理が終了すると、図2のフローにおける画像データ4が出力される。
An arbitrary image is selected by operating the operation unit 70 of FIG. 1 (S304). It is possible to select processing such as deletion and data transfer using the communication unit 110 for the selected image. From these processes, a document creation process with a face photo is selected (S305). When the face photograph input document creation process is selected, the image processing unit shown in the flow in FIG. 2 operates. At this time, the image selected in S304 is the
前記画像データ4は、前記画像表示部28に画像として表示され、使用者にその画像を保存するかどうかの選択を促すUIが動作する(S307)。S307で保存することが選択された場合、前記画像データ4は前記記録媒体に記録される(S308)。S307で保存しないことが選択された場合、前記画像データ4は破棄される。ここで、S307を通らず、S308の画像データ4の保存処理が行われる構成でもよい。 The image data 4 is displayed as an image on the image display unit 28, and a UI that prompts the user to select whether to save the image operates (S307). When saving in S307 is selected, the image data 4 is recorded on the recording medium (S308). If it is selected not to save in S307, the image data 4 is discarded. Here, the configuration may be such that the image data 4 storage process of S308 is performed without passing through S307.
図4は、図3で示したものとは別の、図2で処理フローを示した画像処理部を動作させるフローの一例を示したフローチャートである。画像処理装置の電源を投入し(S401)、再生モードであった場合は、図1の操作部70を操作して撮影モードにする。電源投入時に撮影モードになっていた場合は何もしない(S402、S403)。撮影モードでは、図1の、撮像素子14により得られた画像信号をシステム制御回路50により信号処理部20など制御し、逐次画像表示部28に表示することでライブ画表示することが可能である。 FIG. 4 is a flowchart illustrating an example of a flow for operating the image processing unit illustrated in FIG. 2, which is different from that illustrated in FIG. 3. When the power of the image processing apparatus is turned on (S401) and it is in the reproduction mode, the operation unit 70 in FIG. If the shooting mode is set when the power is turned on, nothing is done (S402, S403). In the shooting mode, it is possible to display a live image by controlling the signal processing unit 20 and the like by the system control circuit 50 and sequentially displaying the image signal obtained by the imaging element 14 in FIG. 1 on the image display unit 28. .
撮影モードでは、撮影時の露出制御、フォーカスの動作、UI表示などの設定(撮影モード)を選択をすることが可能である。それらの設定の中から、顔画像入り書類作成用画像撮影モードを選択する(S404)。顔画像入り書類作成用画像撮影モードが選択されると、図1の画像表示部28に表示されているライブ画に、顔を配置するべき領域と書類を配置するべき領域を前記画像表示装置に図形で表示する(S405)。 In the shooting mode, it is possible to select settings (shooting mode) such as exposure control during shooting, focus operation, and UI display. From these settings, an image shooting mode for creating a document containing a face image is selected (S404). When the image capturing mode for creating a document containing a face image is selected, an area in which a face is to be arranged and an area in which a document is to be arranged are displayed in the image display device in the live image displayed on the image display unit 28 in FIG. A graphic is displayed (S405).
使用者は、S405で表示された図形に合わせて被写体を配置し、図1の操作部70を操作することで撮影を指示する(S406)。撮影が指示されると、前記システム制御回路は周辺回路を制御し、前記顔を配置するべき領域にAF、AE、AWBを合わせて撮影を行い、撮影画像データ1を取得する(S407)。S407の処理に続けて、今度は前記書類を配置するべき領域にAF、AE、AWBを合わせて撮影を行い、撮影画像データ2を取得する(S408)。続いて、撮影画像データ1の、前記顔を配置するべき領域を含む領域と、撮影画像データ2の、前記書類を配置するべき領域を合成し、画像データ5を作成する(S409)。
The user places a subject in accordance with the graphic displayed in S405, and instructs photographing by operating the operation unit 70 of FIG. 1 (S406). When the photographing is instructed, the system control circuit controls the peripheral circuit, performs the photographing by combining AF, AE, and AWB in the area where the face is to be arranged, and acquires the photographed image data 1 (S407). Following the processing of S407, this time, AF, AE, and AWB are photographed in the area where the document is to be placed, and photographed
画像データ5が作成されると、図2でフローを示した画像処理部が動作する。このとき、画像データ5が図2のフローにおける画像データ1である。画像処理が終了すると、図2のフローにおける画像データ4が出力される。画像データ4および画像データ5は、図1の記録媒体200または210に記録される。
When the image data 5 is created, the image processing unit whose flow is shown in FIG. 2 operates. At this time, the image data 5 is the
10 撮影レンズ
12 シャッター
14 撮像素子
16 A/D変換器
18 タイミング発生回路
20 信号処理回路
22 メモリ制御回路
24 画像表示メモリ
26 D/A変換器
28 画像表示部
30 メモリ
32 画像圧縮・伸長回路
40 露光制御手段
42 測距制御手段
44 ズーム制御手段
48 フラッシュ
50 システム制御回路
51 画像処理手段
52 メモリ
54 表示部
56 不揮発性メモリ
60 モードダイアルスイッチ
62 シャッタースイッチSW1
64 シャッタースイッチSW2
66 画像表示ON/OFFスイッチ
68 クイックレビューON/OFFスイッチ
70 操作部
80 電源制御手段
82 コネクタ
84 コネクタ
86 電源手段
90 インタフェース
92 コネクタ
94 インタフェース
96 コネクタ
98 記録媒体着脱検知手段
100 画像処理装置
104 光学ファインダ
110 通信手段
112 コネクタ(またはアンテナ)
120 ゲインアンプ
121 計時部
122 露出演算手段
123 輝度レベル演算手段
124 補正ゲイン演算手段
200 記録媒体
202 記録部
204 インタフェース
206 コネクタ
210 記録媒体
212 記録部
214 インタフェース
216 コネクタ
DESCRIPTION OF SYMBOLS 10
64 Shutter switch SW2
66 Image display ON / OFF switch 68 Quick review ON / OFF switch 70 Operation unit 80 Power supply control means 82 Connector 84 Connector 86 Power supply means 90 Interface 92 Connector 94 Interface 96 Connector 98 Recording medium attachment / detachment detection means 100 Image processing apparatus 104 Optical viewfinder 110 Communication means 112 Connector (or antenna)
DESCRIPTION OF SYMBOLS 120 Gain amplifier 121 Time measuring part 122 Exposure calculating means 123 Brightness level calculating means 124 Correction gain calculating means 200 Recording medium 202 Recording part 204 Interface 206 Connector 210 Recording medium 212 Recording part 214 Interface 216 Connector
Claims (18)
顔部分と台形部分を含む一つの画像データに対して前記顔写真入り書類作成指示手段が操作されたとき、前記顔検出手段により顔画像部分を検出し、前記台形検出手段により台形部分を検出し、前記空き領域検出手段により前記台形部分の空き領域を検出し、前記顔画像配置手段により前記空き領域に前記顔画像部分を配置して新たな画像データを作成することを特徴とする画像処理装置。 A face detection means, a trapezoid detection means, an empty area detection means for detecting an empty area without a character or a pattern in the trapezoid detected by the trapezoid detection means, and an image of the face portion detected by the face detection means In an image processing apparatus provided with a face image placement means to be placed inside, and a face photo containing document creation instruction means for instructing creation of a face photo containing document,
When the face-photographed document creation instruction unit is operated for one image data including a face part and a trapezoid part, the face detection part is detected by the face detection part, and the trapezoid part is detected by the trapezoid detection part. An image processing apparatus, wherein the empty area detecting means detects an empty area of the trapezoidal portion, and the face image arranging means arranges the face image portion in the empty area to create new image data. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006161042A JP2007328694A (en) | 2006-06-09 | 2006-06-09 | Image processing apparatus and digital camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006161042A JP2007328694A (en) | 2006-06-09 | 2006-06-09 | Image processing apparatus and digital camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007328694A true JP2007328694A (en) | 2007-12-20 |
Family
ID=38929097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006161042A Withdrawn JP2007328694A (en) | 2006-06-09 | 2006-06-09 | Image processing apparatus and digital camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007328694A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211643A (en) * | 2009-03-11 | 2010-09-24 | Toshiba Corp | Image processor |
JP2011135400A (en) * | 2009-12-25 | 2011-07-07 | Casio Computer Co Ltd | Image processing apparatus and method, and program |
JP2017092912A (en) * | 2015-11-17 | 2017-05-25 | キヤノン株式会社 | Image processing device and image processing method |
JP2017208730A (en) * | 2016-05-19 | 2017-11-24 | 大日本印刷株式会社 | Certificate photograph taking apparatus and certificate photograph taking method |
US10198796B2 (en) | 2015-09-14 | 2019-02-05 | Olympus Corporation | Information processing apparatus, control method of information processing apparatus, and non-transitory storage medium storing information processing program |
-
2006
- 2006-06-09 JP JP2006161042A patent/JP2007328694A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211643A (en) * | 2009-03-11 | 2010-09-24 | Toshiba Corp | Image processor |
JP2011135400A (en) * | 2009-12-25 | 2011-07-07 | Casio Computer Co Ltd | Image processing apparatus and method, and program |
US8345119B2 (en) | 2009-12-25 | 2013-01-01 | Casio Computer Co., Ltd. | Image pickup device, image processing method, and storage medium storing program |
US8787675B2 (en) | 2009-12-25 | 2014-07-22 | Casio Computer Co., Ltd. | Image pickup device, image processing method, and storage medium storing program |
US10198796B2 (en) | 2015-09-14 | 2019-02-05 | Olympus Corporation | Information processing apparatus, control method of information processing apparatus, and non-transitory storage medium storing information processing program |
JP2017092912A (en) * | 2015-11-17 | 2017-05-25 | キヤノン株式会社 | Image processing device and image processing method |
JP2017208730A (en) * | 2016-05-19 | 2017-11-24 | 大日本印刷株式会社 | Certificate photograph taking apparatus and certificate photograph taking method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7538308B2 (en) | Image processing apparatus and control method thereof | |
US7750968B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP2005176136A (en) | Image processor, image reproducing method, program and recording medium | |
JP2009177365A (en) | Electronic equipment, and control method, and program thereof | |
JP2009177359A (en) | Image editing device, image editing method and program | |
JP2007081732A (en) | Imaging apparatus | |
JP2007328694A (en) | Image processing apparatus and digital camera | |
JP4533017B2 (en) | Imaging device | |
JP2009044444A (en) | Imaging apparatus, its white balance control method, program and storage medium | |
US7778429B2 (en) | Audio processor, audio processing method, computer program, and computer readable storage medium | |
JP4498169B2 (en) | Image processing apparatus and control method thereof | |
JP2005221771A (en) | Imaging device and function display method | |
JP2003274366A (en) | Image processor, image processing method, program, and recording medium | |
JP2009177358A (en) | Image processor, image processing method, and program | |
JP2008072524A (en) | Information processor, control method, program, and storage medium | |
JP4574426B2 (en) | Data processing apparatus and data processing method | |
JP5111215B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP4667251B2 (en) | Imaging apparatus and white balance control method | |
JP2009043169A (en) | Image processor, and image processing method and program | |
JP4717762B2 (en) | Image reproducing apparatus, control method for image reproducing apparatus, program, and recording medium | |
JP2008060844A (en) | Image processor and image processing method | |
JP2006086840A (en) | Image processor | |
JP4857358B2 (en) | Sound processing apparatus, imaging apparatus, sound processing method, computer program, and computer-readable storage medium | |
JP2008124900A (en) | Image processing apparatus | |
JP2011130198A (en) | Imaging apparatus, control method thereof and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090901 |