JP5587351B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP5587351B2
JP5587351B2 JP2012002594A JP2012002594A JP5587351B2 JP 5587351 B2 JP5587351 B2 JP 5587351B2 JP 2012002594 A JP2012002594 A JP 2012002594A JP 2012002594 A JP2012002594 A JP 2012002594A JP 5587351 B2 JP5587351 B2 JP 5587351B2
Authority
JP
Japan
Prior art keywords
image
unit
pattern recognition
imaging
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012002594A
Other languages
Japanese (ja)
Other versions
JP2012080588A (en
Inventor
太 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012002594A priority Critical patent/JP5587351B2/en
Publication of JP2012080588A publication Critical patent/JP2012080588A/en
Application granted granted Critical
Publication of JP5587351B2 publication Critical patent/JP5587351B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、デジタルカメラ等の撮像装置に関し、特に撮像装置で撮影された画像データを保存及び管理する技術に関する。   The present invention relates to an imaging apparatus such as a digital camera, and more particularly to a technique for storing and managing image data captured by the imaging apparatus.

JEITA(電子情報技術産業協会)では、デジタルカメラの画像フォーマットとして、DCF(Design rule for Camera File system)を制定している。DCFは、デジタルカメラで撮影した画像データをコンパクトフラッシュ(登録商標)メモリ等のリムーバブルメモリに記録する際のディレクトリ構造、ファイルフォーマットを規定したものである。   JEITA (Electronic Information Technology Industries Association) has established DCF (Design rule for Camera File system) as an image format of a digital camera. The DCF defines a directory structure and a file format for recording image data captured by a digital camera in a removable memory such as a compact flash (registered trademark) memory.

DCFでは、ファイル構造はExif(Exchange imagefile format)98で定義されている。また、画像データはJPEG(Joint Photographic Expert Group)方式で圧縮され,サムネイルは非圧縮で大きさは160画素×120画素とされるようになっている。更に画像データは、Exifタグにより、撮影時のカメラ情報を記録可能なようになっている。   In DCF, the file structure is defined by Exif (Exchange image file format) 98. The image data is compressed by the JPEG (Joint Photographic Expert Group) method, and the thumbnail is uncompressed and the size is 160 pixels × 120 pixels. Further, the image data can be recorded with camera information at the time of photographing by an Exif tag.

ここで、カメラ情報とは、日付、カメラのメーカ名、機種名、ソフトウェアのバージョン、シャッタースピード、絞り、自動露出プログラム、写真内容の記述等である。これらカメラ情報のうち、写真内容の記述以外は、デジタルカメラの製造時、或いは画像撮影時に自動的に取り込むことが可能である。   Here, the camera information includes date, camera manufacturer name, model name, software version, shutter speed, aperture, automatic exposure program, description of photo contents, and the like. Of these camera information, other than the description of the photo content, it can be automatically captured when the digital camera is manufactured or when an image is taken.

上記カメラ情報の中で、写真内容の記述としては、例えば「2007年度○△小学校 入学式」や、「xx水族館 イルカショー」というような、何処で何を、といったような被写体や撮影場所等に関する個別具体的な情報が記述されることが一般的である。   In the above camera information, the description of the photo content is related to the subject and shooting location, such as where and what, such as “FY2007 Elementary School Entrance Ceremony” or “xx Aquarium Dolphin Show” Generally, individual specific information is described.

このような写真内容に関する個別具体的な情報を撮影時に自動的に取り込むようにすることは、操作性において非常に有効である。このような自動取り込みを実現する手段としては、例えば自動GPS(Global Positioning System)情報を利用することや画像認識を利用すること等が考えられる。   It is very effective in terms of operability to automatically acquire such individual specific information regarding the contents of a photograph at the time of photographing. As means for realizing such automatic capture, for example, use of automatic GPS (Global Positioning System) information or use of image recognition can be considered.

しかしながら、GPSや画像認識では、場所に関しては東京の新宿等の一般的な地理情報を、顔に関しては一致/不一致を認識できても、観光地、遊園地、美術館、テーマパークの名称等の写真(画像データ)管理に必要な個別具体的な情報を得ることはできない。そのため、従来は、撮像した画像データに関する個別具体的な情報、即ち説明データを自動的に画像データに付して管理することができなかった。   However, in GPS and image recognition, it is possible to recognize general geographical information such as Shinjuku in Tokyo for the location, and match / disagreement for the face, but photographs such as the names of sightseeing spots, amusement parks, museums, theme parks, etc. Individual image information required for (image data) management cannot be obtained. Therefore, conventionally, individual specific information regarding captured image data, that is, explanation data cannot be automatically attached to the image data and managed.

このような問題を解決するため、例えば特許文献1では、被写体を説明する説明データをインデックスと共に格納したファイルをメモリカードに予め記憶しておき、撮影する前或いは撮影した後にインデックスを入力するようにした技術が開示されている。詳細には、撮影した画像データをファイル形式でメモリカードに格納すると共に、説明データに係るファイルと画像データに係るファイルとを、入力に係るインデックスを用いて関連付けるようにしている。   In order to solve such a problem, for example, in Patent Document 1, a file storing explanatory data describing an object together with an index is stored in advance in a memory card, and the index is input before or after shooting. Have been disclosed. Specifically, the captured image data is stored in a memory card in a file format, and the file related to the explanation data and the file related to the image data are associated with each other using an index related to the input.

また、特許文献2では、動画像に現れる認識対象物体から、明るさの異なる複数画像それぞれに現れる認識対象物体から文字領域を抽出し、文字領域と辞書画像とのマッチング処理により文字領域に記されている文字を認識する技術が開示されている。詳細には、明るさの異なる複数画像それぞれのパターン認識結果のうちマッチング処理におけるマッチング度が高いものをパターン認識結果として出力するようにしている。この技術によれば、日中に通常の画像では周辺物の影の影響により暗すぎて認識に不適切な文字を、明るさの異なる画像にてパターン認識に適切な状態にすることができる。また、夜間に通常の画像では周辺からの光量照射により明るすぎて認識に不適切な文字を、明るさの異なる画像にて適切な状態にすることができる。これにより、パターン認識性能を向上することができる。   Further, in Patent Document 2, a character area is extracted from recognition target objects appearing in a plurality of images having different brightnesses from a recognition target object appearing in a moving image, and written in the character area by matching processing between the character area and the dictionary image. A technique for recognizing a character is disclosed. Specifically, a pattern recognition result having a high matching degree in the matching process among the pattern recognition results of each of the plurality of images having different brightness is output as the pattern recognition result. According to this technology, a character that is too dark due to the influence of the shadow of a peripheral object in a normal image during the day can be put into an appropriate state for pattern recognition in images with different brightness. Further, in a normal image at night, characters that are too bright due to light irradiation from the periphery and are inappropriate for recognition can be made appropriate in images with different brightness. Thereby, pattern recognition performance can be improved.

特開2003−198909号公報JP 2003-198909 A 特開2003−242440号公報JP 2003-242440 A 特開昭52−156624号公報JP-A-52-156624 特開平4−346333号公報JP-A-4-346333 特開平8−036597号公報Japanese Patent Laid-Open No. 8-036597

しかしながら、特許文献1の技術では、被写体を説明する説明データをメモリカードに予め記憶しなければならず、撮影場所等の情報が特定されていない状況下では入力ができない。そのため、情報が特定できない場合には、カメラ或いはPC等から情報を入力する必要があり、このような作業はカメラ等の入力方法に制約があるようなデバイスの場合には、文字入力が非常に煩わしいという課題があった。   However, in the technique of Patent Document 1, it is necessary to store in advance a description data describing the subject in a memory card, and input is not possible in a situation where information such as a shooting location is not specified. Therefore, if the information cannot be specified, it is necessary to input information from a camera or a PC. Such a task is very difficult to input characters in the case of a device with a limited input method such as a camera. There was a problem that it was bothersome.

また、特許文献2は、動画像における撮影環境に起因する明るさの変化に文字認識を最適化するためのものであり、撮影場所等の情報を自動的に画像データに関連付して管理するものではない。   Patent Document 2 is for optimizing character recognition for changes in brightness caused by a shooting environment in a moving image, and automatically manages information such as a shooting location in association with image data. It is not a thing.

本発明は上記の課題を解決するものであり、撮像した画像に関する個別具体的な情報をパターン認識を利用し自動的に画像に関連付けして、容易に画像を管理できるようにすることを目的とする。   An object of the present invention is to solve the above-described problems, and to make it possible to easily manage images by associating individual specific information regarding captured images with images automatically using pattern recognition. To do.

本発明は、被写体を撮影して画像を取得する撮像手段と、使用者による撮影指示を受け付ける受け付け手段と、前記撮影指示を受け付ける前に前記撮像手段により取得された画像中の領域からパターン認識を行うパターン認識手段と、前記パターン認識手段の認識結果を記憶する記憶手段と、前記撮影指示を受け付けた後に前記撮像手段により取得され、前記パターン認識手段によってパターン認識が行われる領域が含まれていない画像に、前記記憶手段に記憶されている前記認識結果を、関連付ける関連付け手段と、前記パターン認識手段によってパターン認識が行われた画像の被写体と、前記受け付け手段が撮影指示を受け付ける前に前記撮像手段により繰り返し取得される画像の中の被写体とが一致しない場合であって、且つ前記パターン認識手段によってパターン認識が行われる領域が含まれていない画像が前記撮像手段により撮像された場合には、前記記憶手段に記憶されている前記認識結果を初期化する制御手段と、を有することを特徴とする。 The present invention includes an imaging unit that captures an image by capturing a subject, a reception unit that receives a shooting instruction by a user, and pattern recognition from an area in the image acquired by the imaging unit before receiving the shooting instruction. Pattern recognition means to perform, storage means for storing the recognition result of the pattern recognition means, and an area acquired by the imaging means after receiving the photographing instruction and subjected to pattern recognition by the pattern recognition means are not included Associating means for associating the recognition result stored in the storage means with the image, the subject of the image subjected to pattern recognition by the pattern recognizing means, and the imaging means before the accepting means accepts the photographing instruction a case where the subject in the image is repeatedly acquired does not coincide with, and the pattern If the image pattern recognized by the emission recognizing means does not contain regions made is imaged by the imaging means, having a control unit for initializing the recognition result stored in the storage means It is characterized by.

本発明によれば、撮影した画像に関する個別具体的な情報をパソコンやカメラで文字情報として付加する等の煩わしい作業を軽減することができ、操作性の向上を実現すると共に画像の管理を容易にすることができる。   According to the present invention, it is possible to reduce troublesome work such as adding individual specific information about a photographed image as character information with a personal computer or a camera, and it is possible to improve operability and easily manage images. can do.

本発明の実施の形態に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on embodiment of this invention. 本発明の第1の実施の形態に係るデジタルカメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the digital camera which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るデジタルカメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the digital camera which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係るデジタルカメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the digital camera which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るデジタルカメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the digital camera which concerns on the 2nd Embodiment of this invention. 本発明の実施の形態に係るデジタルカメラにおいて撮影される画像を示した図である。It is the figure which showed the image image | photographed with the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラにおいて撮影される画像を示した図である。It is the figure which showed the image image | photographed with the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラにおいて撮影される画像を示した図である。It is the figure which showed the image image | photographed with the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラにおいて撮影される画像を示した図である。It is the figure which showed the image image | photographed with the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラにおいて撮影される画像を示した図である。It is the figure which showed the image image | photographed with the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラにおいて撮影される画像を示した図である。It is the figure which showed the image image | photographed with the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラにおいて撮影される画像を示した図である。It is the figure which showed the image image | photographed with the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラにおいて撮影される画像を示した図である。It is the figure which showed the image image | photographed with the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラが備える辞書データの一例を示した図である。It is the figure which showed an example of the dictionary data with which the digital camera which concerns on embodiment of this invention is provided.

以下、本発明の好適な実施の形態について図面を参照して詳細に説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係るデジタルカメラ(撮像装置)の構成を示すブロック図である。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a digital camera (imaging device) according to the first embodiment of the present invention.

図1において100はデジタルカメラある。11は撮影レンズ、12は絞り機能を備えるシャッター、14は光学像を電気信号に変換する撮像素子、16は撮像素子14のアナログ信号出力をディジタル信号に変換するA/D変換器である。また10は、撮影レンズ11を含む撮像部を覆うことにより、該撮像部の汚れや破損を防止するバリアである保護部である。   In FIG. 1, reference numeral 100 denotes a digital camera. Reference numeral 11 denotes a photographing lens, 12 denotes a shutter having a diaphragm function, 14 denotes an image sensor that converts an optical image into an electrical signal, and 16 denotes an A / D converter that converts an analog signal output from the image sensor 14 into a digital signal. A protection unit 10 is a barrier that covers the imaging unit including the photographing lens 11 to prevent the imaging unit from being soiled or damaged.

18はタイミング発生回路であり、撮像素子14、A/D変換器16、D/A変換器26にクロック信号や制御信号を供給する。タイミング発生回路18は、メモリ制御回路22やシステム制御回路50により制御される。   A timing generation circuit 18 supplies a clock signal and a control signal to the image sensor 14, the A / D converter 16, and the D / A converter 26. The timing generation circuit 18 is controlled by the memory control circuit 22 and the system control circuit 50.

20は画像処理回路であり、A/D変換器16からのデータ或いはメモリ制御回路22からのデータに対して所定の画素補間処理や色変換処理を行う。画像処理回路20はまた、撮像した画像データを用いて所定の演算処理を行うことで、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理の一部を行っている。そしてシステム制御回路50が画像処理回路20による所定の演算処理の演算結果に基づき、露光制御手段40、測距制御手段42に対して制御を行うことで、上記TTL方式のAF処理、AE処理、EF処理が行われる。画像処理回路20はまた、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   An image processing circuit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D converter 16 or the data from the memory control circuit 22. The image processing circuit 20 also performs predetermined arithmetic processing using the captured image data, so that TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, EF (flash) A part of the (pre-flash) process is performed. The system control circuit 50 controls the exposure control means 40 and the distance measurement control means 42 based on the calculation result of the predetermined calculation processing by the image processing circuit 20, so that the TTL AF processing, AE processing, EF processing is performed. The image processing circuit 20 also performs predetermined arithmetic processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

58は顔検出部であり、画像処理回路20からのデータ或いはメモリ制御回路22からのデータに対して所定の顔検出処理を行い、画像に顔があるかどうかを検出するものである。このような技術については既に多くの手法が顔認識技術として実現されている。
例えば、特許文献3では、撮影画像から人の顔を抽出する手法として、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔とする方法が提案されている。
また、特許文献4では、測光データを色相と彩度に変換し、この2次元ヒストグラムを作成、解析することで顔領域を判断する方法が提案されている。
また、特許文献5では、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定するという方法が提案されている。なお、本発明では、顔検出方法についてはどのような方法を使用しても構わない。
A face detection unit 58 performs a predetermined face detection process on the data from the image processing circuit 20 or the data from the memory control circuit 22 to detect whether or not there is a face in the image. Many techniques have already been realized as face recognition techniques.
For example, Patent Document 3 proposes a method for extracting a human face from a captured image by extracting skin color data from an original image and using a cluster of photometric points determined as a skin color range as a face.
Patent Document 4 proposes a method of judging a face area by converting photometric data into hue and saturation, and creating and analyzing this two-dimensional histogram.
Patent Document 5 proposes a method of extracting a face candidate area corresponding to the shape of a human face and determining the face area from the feature amount in the area. In the present invention, any face detection method may be used.

59はパターン検出部であり、予め記憶された辞書データ74を用いて、画像にABC、123、一二三、ひらがな、カタカナ、漢字等の文字や登録された会社ロゴ、標識、顔、絵文字、熟語等があるかどうかを検出する。このような検出技術については既に多くの手法がパターン認識技術として実現されている。本発明では、文字検出方法についてはどのような方法を使用しても良くここでは言及しない。   59 is a pattern detection unit, which uses characters such as ABC, 123, 123, Hiragana, Katakana, Kanji, and registered company logos, signs, faces, pictograms, Detects whether there are idioms etc. Many techniques have already been realized as pattern recognition techniques for such detection techniques. In the present invention, any method may be used for the character detection method, which is not mentioned here.

57はコード変換部であり、パターン検出部59で検出したパターンをコードデータ(以下、コード情報)に変換する。即ち、OCR(Optical Character Reader)処理を行う。   A code conversion unit 57 converts the pattern detected by the pattern detection unit 59 into code data (hereinafter, code information). That is, OCR (Optical Character Reader) processing is performed.

72は被写体情報生成部であり、ライブビュー時の取り込み画像から被写体情報を生成する。71は被写体比較部であり、被写体情報生成部72が生成した情報を所定の対象と比較する。なお、被写体情報生成部72及び被写体比較部71の詳細については後述する。   Reference numeral 72 denotes a subject information generating unit that generates subject information from a captured image at the time of live view. Reference numeral 71 denotes a subject comparison unit that compares information generated by the subject information generation unit 72 with a predetermined target. Details of the subject information generation unit 72 and the subject comparison unit 71 will be described later.

73はコード比較部であり、コード変換部57によって変換された前コード情報と新コード情報とを辞書データ74を参照しながら比較する。なお、詳細は後述するがライブビュー時においては、画像取込の際にパターン検出部59によりパターン検出が随時行われており、順次取り込まれる画像に応じてコード情報が更新されるようになっている。   A code comparison unit 73 compares the previous code information converted by the code conversion unit 57 and the new code information with reference to the dictionary data 74. Although details will be described later, during live view, pattern detection is performed at any time by the pattern detection unit 59 during image capture, and code information is updated according to sequentially captured images. Yes.

22はメモリ制御回路であり、A/D変換器16、タイミング発生回路18、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮・伸長回路32を制御する。なお、A/D変換器16からのデータは、画像処理回路20及びメモリ制御回路22を介して、或いは直接メモリ制御回路22を介して、画像表示メモリ24或いはメモリ30に書き込まれる。   A memory control circuit 22 controls the A / D converter 16, the timing generation circuit 18, the image processing circuit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression circuit 32. The data from the A / D converter 16 is written into the image display memory 24 or the memory 30 through the image processing circuit 20 and the memory control circuit 22 or directly through the memory control circuit 22.

24は画像表示メモリ、26はD/A変換器、28はTFT・LCD等からなる画像表示部である。画像表示メモリ24に書き込まれた表示用の画像データはD/A変換器26を介して画像表示部28により表示される。画像表示部28を用いて撮像した画像データを逐次表示すれば、電子ファインダー機能を実現することが可能である。画像表示部28はまた、システム制御回路50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合にはデジタルカメラ100の電力消費を大幅に低減することができる。   Reference numeral 24 denotes an image display memory, 26 denotes a D / A converter, and 28 denotes an image display unit including a TFT / LCD or the like. The display image data written in the image display memory 24 is displayed by the image display unit 28 via the D / A converter 26. If the image data captured using the image display unit 28 is sequentially displayed, the electronic viewfinder function can be realized. The image display unit 28 can also arbitrarily turn on / off the display according to an instruction from the system control circuit 50. When the display is turned off, the power consumption of the digital camera 100 can be greatly reduced. .

30は撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶容量を備えている。これにより、デジタルカメラ100は、複数枚の静止画像を連続して撮影する連射撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。メモリ30はまた、システム制御回路50の作業領域としても使用することが可能である。   Reference numeral 30 denotes a memory for storing captured still images and moving images, and has a storage capacity sufficient to store a predetermined number of still images and a moving image for a predetermined time. As a result, the digital camera 100 can perform high-speed and large-volume image writing to the memory 30 even in continuous shooting or panoramic shooting in which a plurality of still images are continuously shot. The memory 30 can also be used as a work area for the system control circuit 50.

32は圧縮・伸長回路であり、適応離散コサイン変換(ADCT)等により画像データを圧縮及び伸長する。圧縮・伸長回路32はメモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。   Reference numeral 32 denotes a compression / decompression circuit that compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like. The compression / decompression circuit 32 reads an image stored in the memory 30, performs compression processing or decompression processing, and writes the processed data to the memory 30.

40は露光制御手段であり、絞り機能を備えるシャッター12を制御し、またフラッシュ48と連携することによりフラッシュ調光機能も有するものである。42は測距制御手段であり、撮影レンズ11のフォーカシングを制御する。44はズーム制御手段であり、撮影レンズ11のズーミングを制御する。46はバリア制御手段であり、バリアである保護部10の動作を制御する。48はフラッシュであり、AF補助光の投光機能、フラッシュ調光機能も有する。   Reference numeral 40 denotes an exposure control means that controls the shutter 12 having an aperture function and also has a flash light control function in cooperation with the flash 48. Reference numeral 42 denotes distance measurement control means for controlling the focusing of the photographic lens 11. A zoom control unit 44 controls zooming of the photographing lens 11. 46 is a barrier control means for controlling the operation of the protection unit 10 as a barrier. A flash 48 has an AF auxiliary light projecting function and a flash light control function.

上述したように露光制御手段40、測距制御手段42はTTL方式を用いて制御されており、撮像した画像データを画像処理回路20が演算した演算結果に基づき、システム制御回路50が露光制御手段40、測距制御手段42に対して制御を行う。   As described above, the exposure control means 40 and the distance measurement control means 42 are controlled using the TTL method. Based on the calculation result obtained by the image processing circuit 20 calculating the captured image data, the system control circuit 50 controls the exposure control means. 40, the distance measurement control means 42 is controlled.

50はデジタルカメラ100全体を制御するシステム制御回路、52はシステム制御回路50の動作用の定数、変数、プログラム等を記憶するメモリである。   A system control circuit 50 controls the entire digital camera 100, and a memory 52 stores constants, variables, programs, and the like for operation of the system control circuit 50.

54は表示部であり、システム制御回路50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する。表示部54は、デジタルカメラ100の操作部近辺の視認し易い位置に単数或いは複数個所設置され、例えばLCDやLED等の液晶表示装置、スピーカーや発音素子等の組み合わせにより構成されている。表示部54はまた、その一部の機能が光学ファインダー104内に設置されている。   A display unit 54 displays an operation state, a message, and the like using characters, images, sounds, and the like according to execution of the program in the system control circuit 50. The display unit 54 is installed in a single or a plurality of positions near the operation unit of the digital camera 100 so as to be easily visible, and is configured by a combination of a liquid crystal display device such as an LCD or LED, a speaker, or a sounding element. The display unit 54 is also partially installed in the optical viewfinder 104.

表示部54の表示内容のうち、LCD等に表示するものとしては、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示、シャッタースピード表示等がある。また、絞り値表示、露出補正表示、フラッシュ表示、赤目緩和表示、マクロ撮影表示、ブザー設定表示、時計用電池残量表示、電池残量表示、エラー表示等がある。更には、複数桁の数字による情報表示、記録媒体200及び210の着脱状態表示、通信I/F動作表示、日付・時刻表示等がある。   Among the display contents of the display unit 54, what is displayed on the LCD or the like includes single shot / continuous shooting display, self-timer display, compression rate display, number of recorded pixels, number of recorded pixels, number of remaining images that can be captured, shutter There is a speed display etc. In addition, there are aperture value display, exposure correction display, flash display, red-eye reduction display, macro shooting display, buzzer setting display, clock battery level display, battery level display, error display, and the like. Furthermore, there are information display with a plurality of digits, display of the attachment / detachment status of the recording media 200 and 210, communication I / F operation display, date / time display, and the like.

また、表示部54の表示内容のうち、光学ファインダー104内に表示するものとしては、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示等がある。   Among the display contents of the display unit 54, what is displayed in the optical viewfinder 104 includes in-focus display, camera shake warning display, flash charge display, shutter speed display, aperture value display, exposure correction display, and the like.

56は電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。   Reference numeral 56 denotes an electrically erasable / recordable nonvolatile memory such as an EEPROM.

60、62、64、66、68及び70は、システム制御回路50の各種の動作指示を入力するための操作手段であり、スイッチ、ダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。以下、これらの操作手段の具体的な説明を行う。   Reference numerals 60, 62, 64, 66, 68, and 70 are operation means for inputting various operation instructions of the system control circuit 50, and may be a single unit such as a switch, a dial, a touch panel, pointing by line-of-sight detection, a voice recognition device, or the like. Consists of multiple combinations. Hereinafter, these operation means will be described in detail.

60はモードダイアルスイッチであり、電源オフ、自動撮影モード、撮影モード、パノラマ撮影モード、再生モード、マルチ画面再生・消去モード、PC接続モード等の各機能モードを切り替え設定することができる。   Reference numeral 60 denotes a mode dial switch, which can switch and set various function modes such as power-off, automatic shooting mode, shooting mode, panoramic shooting mode, playback mode, multi-screen playback / erase mode, and PC connection mode.

62はシャッタースイッチSW1であり、不図示のシャッタースイッチの操作途中でONとなり、AF処理、AE処理、AWB処理、EF処理等の動作開始を指示する。64はシャッタースイッチSW2であり、不図示のシャッタースイッチの操作完了でONとなり、撮影記録の一連の処理の動作開始を指示する。具体的には、まず撮像素子14から読み出した信号を、A/D変換器16、メモリ制御回路22を介してメモリ30に画像データを書き込む露光処理を指示する。次に画像処理回路20やメモリ制御回路22での演算を用いた現像処理を指示する。最後に、メモリ30から画像データを読み出し、圧縮・伸長回路32で圧縮を行い、記録媒体200或いは210に画像データを書き込む記録処理を指示する。   Reference numeral 62 denotes a shutter switch SW1, which is turned on during the operation of a shutter switch (not shown) and instructs to start operations such as AF processing, AE processing, AWB processing, and EF processing. Reference numeral 64 denotes a shutter switch SW2, which is turned on when an operation of a shutter switch (not shown) is completed, and instructs the start of a series of shooting and recording processes. Specifically, first, an exposure process for writing image data to the memory 30 via the A / D converter 16 and the memory control circuit 22 for the signal read from the image sensor 14 is instructed. Next, the development processing using the calculation in the image processing circuit 20 and the memory control circuit 22 is instructed. Finally, image data is read from the memory 30, compressed by the compression / decompression circuit 32, and a recording process for writing the image data to the recording medium 200 or 210 is instructed.

66は画像表示ON/OFFスイッチであり、画像表示部28のON/OFFを設定することができる。この機能により、光学ファインダー104を用いて撮影を行う際に、TFT・LCD等からなる画像表示部28への電流供給を遮断することにより、省電力を図ることが可能となる。   Reference numeral 66 denotes an image display ON / OFF switch, which can set ON / OFF of the image display unit 28. With this function, when photographing is performed using the optical viewfinder 104, it is possible to save power by cutting off the current supply to the image display unit 28 including a TFT / LCD.

68はクイックレビューON/OFFスイッチであり、撮影直後に撮影した画像データを自動再生するクイックレビュー機能を設定する。なお、本実施の形態では特に、画像表示部28をOFFとした場合におけるクイックレビュー機能の設定をする機能を備えるものとする。   Reference numeral 68 denotes a quick review ON / OFF switch, which sets a quick review function for automatically reproducing image data taken immediately after photographing. In the present embodiment, in particular, a function for setting a quick review function when the image display unit 28 is turned off is provided.

70は各種ボタンやタッチパネル等からなる操作部であり、メニューボタン、セットボタン、マクロボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン等を含む。また、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等を含む。   An operation unit 70 includes various buttons and a touch panel, and includes a menu button, a set button, a macro button, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, and the like. Also, menu movement + (plus) button, menu movement-(minus) button, playback image movement + (plus) button, playback image-(minus) button, shooting image selection button, exposure compensation button, date / time setting button, etc. including.

80は電源制御手段であり、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されている。電源制御手段80は電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びシステム制御回路50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。   Reference numeral 80 denotes power supply control means, which includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like. The power supply control means 80 detects the presence / absence of a battery, the type of battery, the remaining battery level, controls the DC-DC converter based on the detection result and an instruction from the system control circuit 50, and supplies the necessary voltage for a necessary period. , And supplied to each unit including the recording medium.

82及び84はコネクタであり、86は電源手段である。電源手段86はアルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。   82 and 84 are connectors, and 86 is a power supply means. The power supply means 86 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, NiMH battery or Li battery, an AC adapter, or the like.

90及び94はメモリカードやハードディスク等の記録媒体とのインタフェース、92及び96はメモリカードやハードディスク等の記録媒体と接続を行うコネクタである。98は記録媒体着脱検知手段であり、コネクタ92又は96に記録媒体200又は210が装着されているか否かを検知する。   Reference numerals 90 and 94 denote interfaces with recording media such as memory cards and hard disks, and reference numerals 92 and 96 denote connectors for connecting to recording media such as memory cards and hard disks. Reference numeral 98 denotes a recording medium attachment / detachment detection unit that detects whether or not the recording medium 200 or 210 is attached to the connector 92 or 96.

なお、本実施の形態では、記録媒体を取り付けるインタフェース及びコネクタを2系統持つものとして説明しているが、もちろん記録媒体を取り付けるインタフェース及びコネクタを単数或いは複数、いずれの系統数を備える構成としても構わない。また、異なる規格のインタフェース及びコネクタを組み合わせて備えるような構成としても構わない。
インタフェース及びコネクタとしては、例えばPCMCIAカードやCF(コンパクトフラッシュ)カード等の規格に準拠したものを用いることができる。インタフェース90及び94、そしてコネクタ92及び96をPCMCIAカードやCF(コンパクトフラッシュ)カード等の規格に準拠したものを用いて構成した場合には、LANカードやモデムカード等の各種通信カードを接続することができる。そして、接続した場合には、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。なお、LANカードやモデムカード以外にも、例えば、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カードを接続することも可能である。
In the present embodiment, the description has been given assuming that there are two systems of interfaces and connectors for attaching the recording medium. Of course, one or a plurality of interfaces and connectors for attaching the recording medium may be provided. Absent. Further, a configuration in which interfaces and connectors of different standards are provided in combination may be used.
As the interface and connector, for example, a PCMCIA card, a CF (compact flash) card or the like conforming to a standard can be used. When the interfaces 90 and 94 and the connectors 92 and 96 are configured using a PCMCIA card, a CF (compact flash) card, or other standard, connect various communication cards such as a LAN card and a modem card. Can do. When connected, image data and management information attached to the image data can be transferred to and from other computers and peripheral devices such as a printer. In addition to the LAN card and the modem card, for example, a communication card such as a USB card, an IEEE 1394 card, a P1284 card, a SCSI card, or a PHS can be connected.

104は光学ファインダーであり、画像表示部28による電子ファインダー機能を使用すること無しに、光学ファインダー104のみを用いて撮影を行うことを可能とする。また、光学ファインダー104内には、表示部54の一部の機能、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示等が設置されている。   Reference numeral 104 denotes an optical viewfinder, which enables photographing using only the optical viewfinder 104 without using the electronic viewfinder function of the image display unit 28. In the optical viewfinder 104, some functions of the display unit 54, for example, a focus display, a camera shake warning display, a flash charge display, a shutter speed display, an aperture value display, an exposure correction display, and the like are installed.

110は通信手段であり、RS232CやUSB、IEEE1394、P1284、SCSI、モデム、LAN、無線通信等の各種通信機能を有する。112はコネクタ或いはアンテナであり、通信手段110によりデジタルカメラ100を他の機器と有線又は無線で接続する。   A communication unit 110 has various communication functions such as RS232C, USB, IEEE1394, P1284, SCSI, modem, LAN, and wireless communication. Reference numeral 112 denotes a connector or an antenna, which connects the digital camera 100 to other devices via a communication unit 110 in a wired or wireless manner.

200はメモリカードやハードディスク等の記録媒体である。記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、デジタルカメラ100とのインタフェース204、及びデジタルカメラ100と接続を行うコネクタ206を備えている。210はメモリカードやハードディスク等の記録媒体である。記録媒体210は、半導体メモリや磁気ディスク等から構成される記録部212、デジタルカメラ100とのインタフェース214、及びデジタルカメラ100と接続を行うコネクタ216を備えている。   Reference numeral 200 denotes a recording medium such as a memory card or a hard disk. The recording medium 200 includes a recording unit 202 composed of a semiconductor memory, a magnetic disk, and the like, an interface 204 with the digital camera 100, and a connector 206 that connects to the digital camera 100. Reference numeral 210 denotes a recording medium such as a memory card or a hard disk. The recording medium 210 includes a recording unit 212 composed of a semiconductor memory, a magnetic disk, or the like, an interface 214 with the digital camera 100, and a connector 216 that connects to the digital camera 100.

次に、以上のような構成を備えたデジタルカメラ100の本発明の主眼となる動作を図2−1及び図2−2を参照して説明する。図2−1は、デジタルカメラ100がライブビュー動作中に実行する処理のフローチャートであり、図2−2はデジタルカメラ100が撮影記録処理を指示された場合に実行する処理のフローチャートである。   Next, operations that are the main focus of the present invention of the digital camera 100 having the above-described configuration will be described with reference to FIGS. FIG. 2A is a flowchart of processing executed by the digital camera 100 during the live view operation, and FIG. 2B is a flowchart of processing executed when the digital camera 100 is instructed to perform shooting / recording processing.

まず図2−1のステップS201において、デジタルカメラ100は、ライブビュー撮影を開始し、画像取込を行う。詳細には、撮影レンズ11から入力された光学像を撮像素子14により電気信号に変換し、A/D変換器16によりアナログ信号出力をディジタル信号に変換し、画像処理回路20により撮像した画像データを用いて所定の演算処理し、撮影前の画像取込を行う。   First, in step S201 of FIG. 2-1, the digital camera 100 starts live view shooting and captures an image. Specifically, the optical image input from the photographic lens 11 is converted into an electrical signal by the image sensor 14, the analog signal output is converted into a digital signal by the A / D converter 16, and image data captured by the image processing circuit 20. Is used to perform a predetermined calculation process to capture an image before photographing.

次にステップS202において、デジタルカメラ100は、パターン検出部59によりパターン領域が存在するか否かを判定する。判定の結果、パターン領域がなかったら、画像取込(S201)に戻り、パターン領域が存在すればステップS203へと進む。   Next, in step S <b> 202, the digital camera 100 determines whether the pattern area exists by the pattern detection unit 59. As a result of the determination, if there is no pattern area, the process returns to image capture (S201), and if a pattern area exists, the process proceeds to step S203.

ステップS203において、デジタルカメラ100は、パターン領域に対して、コード変換部57によりOCR処理を行い、コード情報を生成する。なお、ステップS201〜S203の処理は、本発明でいうパターン認識手段による一処理例に対応する。   In step S203, the digital camera 100 performs OCR processing on the pattern area by the code conversion unit 57 to generate code information. Note that the processing in steps S201 to S203 corresponds to an example of processing by the pattern recognition means in the present invention.

次にステップS204において、デジタルカメラ100は、ステップS203でのOCRの結(コード情報、本発明でいう認識結果)と前コード情報とをコード比較部73にて比較し、有効性の判定を行う。判定結果が有効性無しであれば前コード情報を更新せず、有効性有りであればステップS205においてコード情報を最新のコード情報に更新し、画像取込(S201)に戻る。なお、ステップS204処理は、本発明でいうパターン比較手段の一処理例に対応し、ステップS205の処理は、本発明でいう更新手段及び第1の記憶手段の一処理例に対応する。   Next, in step S204, the digital camera 100 compares the OCR result (code information, the recognition result referred to in the present invention) in step S203 with the previous code information in the code comparison unit 73, and determines the validity. . If the determination result is invalid, the previous code information is not updated. If valid, the code information is updated to the latest code information in step S205, and the process returns to image capture (S201). Note that the processing in step S204 corresponds to one processing example of the pattern comparison means in the present invention, and the processing in step S205 corresponds to one processing example in the updating means and the first storage means in the present invention.

以上のように、デジタルカメラ100においては、ライブビュー動作中には、ライブビュー表示のために取り込んだ画像において所定の間隔でパターン領域を検出し、それをコード情報として記憶及び更新するようにしている。   As described above, in the digital camera 100, during a live view operation, a pattern area is detected at a predetermined interval in an image captured for live view display, and is stored and updated as code information. Yes.

次に図2−2を参照して、デジタルカメラ100が撮影記録処理を指示された場合に実行する処理を説明する。なお、図2−2の処理は図2−1の処理と並行的に行われるものである。   Next, processing executed when the digital camera 100 is instructed to perform shooting and recording processing will be described with reference to FIG. The process of FIG. 2-2 is performed in parallel with the process of FIG.

まずステップS206において、デジタルカメラ100は、シャッタースイッチSW2(64)が押されたか否かの監視を行う。押された場合はステップS207において、保存されているコード情報を読み出し、ステップS208において撮影画像を生成する。   First, in step S206, the digital camera 100 monitors whether or not the shutter switch SW2 (64) has been pressed. If the button is pressed, the stored code information is read in step S207, and a captured image is generated in step S208.

そして、ステップS209において、デジタルカメラ100は、ステップS207で取得したコード情報を撮影画像に付加(関連付け)し、インタフェース90及び94を介してCFやSDカード等の記録媒体に書き込みを行う。なお、ステップS209の処理は、本発明でいう関連付手段に一処理例に対応する。   In step S209, the digital camera 100 adds (associates) the code information acquired in step S207 to the photographed image, and writes it on a recording medium such as a CF or SD card via the interfaces 90 and 94. Note that the processing in step S209 corresponds to an example of processing in association means in the present invention.

ここで図4−1〜図4−8を用いて、図2−1及び図2−2を用いて説明した処理の具体的な動作を説明する。まず図4−1等を参照して、従来の問題点を説明する。   Here, the specific operation of the processing described with reference to FIGS. 2-1 and 2-2 will be described with reference to FIGS. First, conventional problems will be described with reference to FIG.

図4−1に示す画像401の撮影を行えば、写真を見ただけで「二〇〇七年度入学式」のときに撮影したものであることがわかる。しかしながら、図4−2に示す画像402の撮影を行えば、写真を見ただけで「二〇〇七年度入学式」のときに撮影したものであることが辛うじてわかるかもしれないが、情報としては不十分である。さらに、図4−3に示す画像403の撮影を行えば、写真を見ただけでは「二〇〇七年度入学式」であることはわからない。
そこで、図4−3に示すような画像403の撮影を行った場合でも、例えば図4−8に示すようにコード情報(図中408a)を印刷時や画像表示時に見えるようにすれば、該写真を見ただけで「二〇〇七年度入学式」であることがわかるようになる。
しかしながら、従来の撮像装置では、文字列検索を行う場合や画像408のような印刷画像、表示画像を得るために、パソコンやカメラで文字情報を付加する又は文字情報を予め登録して画像と文字情報との関連付けを行う等の非常に煩わしい作業が必要であった。
本発明に係るデジタルカメラ100では、このような煩わしい作業を解消する。以下、図4−1〜図4−3を参照して、デジタルカメラ100の動作を具体的に説明する。
If the image 401 shown in FIG. 4A is taken, it can be seen that it was taken at the entrance ceremony of “FY2007” just by looking at the picture. However, if you take the image 402 shown in Fig. 4-2, you may barely know that it was taken at the entrance ceremony of "2007" just by looking at the picture. Is insufficient. Furthermore, if an image 403 shown in FIG. 4-3 is taken, it is not possible to know that it is “the entrance ceremony for the year 2007” simply by looking at the photograph.
Therefore, even when the image 403 as shown in FIG. 4-3 is taken, if the code information (408a in the figure) is made visible at the time of printing or image display as shown in FIG. Just by looking at the photos, you will be able to understand that it is the “FY2007 Entrance Ceremony”.
However, in a conventional imaging device, in order to perform a character string search, or to obtain a print image or a display image such as the image 408, character information is added by a personal computer or a camera, or character information is registered in advance and an image and a character are registered. A very troublesome work such as associating with information was necessary.
The digital camera 100 according to the present invention eliminates such troublesome work. Hereinafter, the operation of the digital camera 100 will be specifically described with reference to FIGS.

まず図4−1に示す画像をライブビュー表示のために画像取込(ステップS201)すると、ここで示す画像401の場合はパターン検出部59にてパターン領域が存在(ステップS202)すると判定される。ここでは、401aに示す領域をパターン領域として検出したものとする。   First, when the image shown in FIG. 4A is captured for live view display (step S201), in the case of the image 401 shown here, the pattern detection unit 59 determines that a pattern area exists (step S202). . Here, it is assumed that the area indicated by 401a is detected as a pattern area.

そして、コード変換部57にてOCR処理(ステップS203)が行われ、OCR処理の結果を用いて、コード比較部73にて前コード情報と比較(ステップS204)する。ここでは、OCR処理の結果であるコード情報が新規であるため、コード情報を更新(ステップS205)し、画像取込(ステップS201)に戻る。   Then, OCR processing (step S203) is performed by the code conversion unit 57, and the code comparison unit 73 compares it with the previous code information (step S204) using the result of the OCR processing. Here, since the code information that is the result of the OCR process is new, the code information is updated (step S205), and the process returns to image capture (step S201).

次にユーザーは、構図、フォーカス位置、露出等を表示部54を見ながら変更し、図4−2に示す画像402を経て、図4−3に示すような画像403を最適な撮影ポイントとして探したとする。この場合、その途中過程にある図4−2に示す画像402は、ライブビュー表示のために画像取込(ステップS201)されており、画像402はパターン検出部59により402aに示すパターン領域が存在(ステップS202)すると判定されている。そして、コード変換部57にてOCR処理(ステップS203)が行われ、OCR処理の結果を用いて、コード比較部73にて前コード情報と比較(ステップS204)される。ここでの比較においては、今回のコード情報が前コード情報より少ない(有効性が低い)ので、コード情報は更新されない。従って、前コード情報は更新されず、前回の「二〇〇七年度入学式」が残ることになる。なお、コード情報の有効性の比較については、辞書データ74を参照しながら行われるが、例えば文字の明確さ等に基づき判断するようにする。   Next, the user changes the composition, focus position, exposure, and the like while looking at the display unit 54, and searches for an image 403 as shown in FIG. Suppose. In this case, the image 402 shown in FIG. 4B in the middle of the process is captured for live view display (step S201), and the image 402 has a pattern region indicated by 402a by the pattern detection unit 59. (Step S202). Then, the OCR process (step S203) is performed by the code conversion unit 57, and the result of the OCR process is used to compare with the previous code information by the code comparison unit 73 (step S204). In this comparison, since the current code information is less than the previous code information (effectiveness is low), the code information is not updated. Therefore, the previous code information is not updated, and the previous “2007 entrance ceremony” remains. The comparison of the validity of the code information is performed with reference to the dictionary data 74. For example, the determination is made based on the clarity of the characters.

次に図4−3に示す画像403も、ライブビュー表示のための画像取込(ステップS201)がなされている。そして画像403の場合には、パターン検出部59にてパターン領域が存在(S202)しないと判定されるので、前コード情報は更新されず、ここでも「二〇〇七年度入学式」が残ることになる。   Next, an image 403 shown in FIG. 4C is also captured for live view display (step S201). In the case of the image 403, the pattern detection unit 59 determines that the pattern area does not exist (S202), so the previous code information is not updated, and the “2007 entrance ceremony” remains here as well. become.

ここでシャッタースイッチ64が押される(ステップS206)と、ステップS205で保存された「二〇〇七年度入学式」情報が読み出される(ステップS207)。そして、デジタルカメラ100に設定されている撮影パラメータに従い、撮影画像が生成(ステップS208)される。そして、撮影画像には「二〇〇七年度入学式」のコード情報が付加され、インタフェース90及び94を介してCFやSD等の記録媒体に書き込まれることになる(ステップS209)。以上のように処理がなされることで、「二〇〇七年度入学式」のコード情報と撮影画像が自動的に関連付けされ、コード情報を検索、画像表示、印刷といった文字合成等に利用できるようになる。   Here, when the shutter switch 64 is pressed (step S206), the information for “FY2007 entrance ceremony” stored in step S205 is read (step S207). Then, a captured image is generated according to the shooting parameters set in the digital camera 100 (step S208). Then, the code information of “FY2007 entrance ceremony” is added to the photographed image and is written to a recording medium such as CF or SD via the interfaces 90 and 94 (step S209). By performing the processing as described above, the code information of the “FY2007 Entrance Ceremony” and the photographed image are automatically associated so that the code information can be used for character composition such as search, image display, and printing. become.

以上のように、第1の実施の形態に係るデジタルカメラ100では、ライブビュー動作中にパターン領域を検出し、撮影画像に関する個別具体的なコード情報として記憶しておき、撮影された撮影画像に関連付けて管理するようにした。このようなデジタルカメラ100では、撮影画像に関する個別具体的なコード情報をパソコンやカメラで文字情報として付加する等の煩わしい作業を軽減することができるため、操作性の向上を実現することができる。また、特にカメラ等の入力方法に一部制約があるデバイスにおいては、非常に煩わしい文字入力の頻度を少なくできるため、操作性向上の効果が高い。
また、撮影画像において個別具体的なコード情報を認識できなかった場合にも、記憶したコード情報を該撮影画像に関連付けて管理できるため、文字情報の付加という作業を軽減するだけではなく、関連する一連の撮影画像の良好な管理を助援することもできる。
As described above, in the digital camera 100 according to the first embodiment, the pattern area is detected during the live view operation, stored as individual specific code information regarding the captured image, and the captured captured image is recorded. The association was managed. In such a digital camera 100, since it is possible to reduce troublesome work such as adding individual specific code information relating to a photographed image as character information with a personal computer or a camera, operability can be improved. In particular, in a device that has some restrictions on the input method, such as a camera, the frequency of extremely troublesome character input can be reduced, and the effect of improving operability is high.
Further, even when individual specific code information cannot be recognized in the photographed image, the stored code information can be managed in association with the photographed image, so that not only the task of adding character information is reduced, but also related It is also possible to support good management of a series of captured images.

(第2の実施の形態)
以下、本発明の第2の実施の形態について説明する。本実施の形態では、パターン領域の検出後のコード情報の更新の判断に被写体情報を考慮する。なお、本実施の形態に係るデジタルカメラは、第1の実施の形態と同様であるため引用する符号は同一のものとし、説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the present embodiment, subject information is taken into consideration for determination of update of code information after detection of a pattern area. Since the digital camera according to the present embodiment is the same as that of the first embodiment, the same reference numerals are used and the description thereof is omitted.

第2の実施の形態に係るデジタルカメラ100の本発明の主眼となる動作を図3−1及び図3−2を参照して説明する。図3−1は、デジタルカメラ100がライブビュー動作中に実行する処理のフローチャートであり、図3−2は、デジタルカメラ100が撮影記録処理を指示された場合に実行する処理のフローチャートである。   The main operation of the digital camera 100 according to the second embodiment of the present invention will be described with reference to FIGS. 3-1 and 3-2. FIG. 3A is a flowchart of processing executed by the digital camera 100 during the live view operation, and FIG. 3B is a flowchart of processing executed when the digital camera 100 is instructed to perform shooting / recording processing.

まず図3−1のステップS301において、デジタルカメラ100は、ライブビュー撮影を開始し、画像取込を行う。詳細には、撮影レンズ11から入力された光学像を撮像素子14により電気信号に変換し、A/D変換器16によりアナログ信号出力をディジタル信号に変換し、画像処理回路20により撮像した画像データを用いて所定の演算処理し、画像取込を行う。   First, in step S301 in FIG. 3A, the digital camera 100 starts live view shooting and captures an image. Specifically, the optical image input from the photographic lens 11 is converted into an electrical signal by the image sensor 14, the analog signal output is converted into a digital signal by the A / D converter 16, and image data captured by the image processing circuit 20. Is used to perform a predetermined calculation process and capture an image.

次にステップS302において、デジタルカメラ100は被写体情報生成部72により、被写体情報を生成する。被写体情報の詳細については後述する。なお、ステップS302の処理は、本発明でいう被写体情報生成手段の一処理例に対応する。   In step S <b> 302, the digital camera 100 uses the subject information generation unit 72 to generate subject information. Details of the subject information will be described later. Note that the processing in step S302 corresponds to an example of processing of the subject information generation means in the present invention.

次にステップS303において、デジタルカメラ100は被写体比較部71により前被写体情報との関連性が一致しているか否かを判定する。一致していなかったらステップS313へと進み、一致していればステップS304へと進む。なお、ステップS303の処理は、本発明でいう被写体情報比較手段の一処理例に対応する。   In step S <b> 303, the digital camera 100 determines whether the relevance with the previous subject information matches by the subject comparison unit 71. If they do not match, the process proceeds to step S313, and if they do not match, the process proceeds to step S304. Note that the processing in step S303 corresponds to a processing example of the subject information comparison means in the present invention.

ステップS304において、デジタルカメラ100は、パターン検出部59によりパターン領域が存在するか否かを判定し、存在していなければ、画像取込(S301)に戻る。存在していれば、ステップS305においてコード変換部57によりOCR処理を行う。なお、ステップS304及びS305の処理は、本発明でいうパターン認識手段の一処理例に対応する。   In step S304, the digital camera 100 determines whether or not the pattern area exists by the pattern detection unit 59, and if not, returns to image capture (S301). If it exists, the OCR process is performed by the code conversion unit 57 in step S305. Note that the processing in steps S304 and S305 corresponds to a processing example of the pattern recognition means in the present invention.

次にステップS306において、デジタルカメラ100はコード比較部73によりOCRの結果と前コード情報とを比較し、有効性の判定を行う。判定の結果、有効性が低ければ前コード情報を更新せず、画像取込(S301)に戻る。一方、有効性が高ければ、ステップS307において、ステップS302にて生成した被写体情報を保存し、ステップS308において、コード情報を更新し、画像取込(S301)に戻る。なお、ステップS306の処理は、本発明でいうパターン比較手段の一処理例に対応し、ステップS307の処理は、第2の記憶手段の一処理例に対応し、ステップS308の処理は、本発明でいう第1の記憶手段の一処理例に対応する。   In step S306, the digital camera 100 compares the result of the OCR with the previous code information by the code comparison unit 73, and determines the validity. As a result of the determination, if the validity is low, the previous code information is not updated, and the process returns to image capture (S301). On the other hand, if the effectiveness is high, the subject information generated in step S302 is saved in step S307, the code information is updated in step S308, and the process returns to image capture (S301). Note that the processing in step S306 corresponds to one processing example of the pattern comparison means in the present invention, the processing in step S307 corresponds to one processing example in the second storage means, and the processing in step S308 corresponds to the present invention. Corresponds to an example of processing of the first storage means.

一方、ステップS303において、被写体比較部71により前被写体情報との関連性が一致していないと判定された場合のステップS313においては、まずデジタルカメラ100がパターン検出部59によりパターン領域が存在するか否か判定する。存在しない場合はステップS317にてコード情報の初期化を行い、画像取込(S301)に戻り、パターン領域が存在する場合はステップS314に進む。   On the other hand, in step S <b> 313, when the subject comparison unit 71 determines that the relevance with the previous subject information does not match, first, in step S <b> 313, the digital camera 100 first determines whether the pattern detection unit 59 has a pattern area. Judge whether or not. If it does not exist, code information is initialized in step S317, and the process returns to image capture (S301). If a pattern area exists, the process proceeds to step S314.

ステップS314において、デジタルカメラ100は、ステップS313でのパターン領域に対して、コード変換部57によりOCR処理する。そして、ステップS315においてステップS302で生成した被写体情報を保存し、ステップS316においてコード情報を更新して、画像取込(S301)に戻る。   In step S314, the digital camera 100 performs OCR processing on the pattern area in step S313 by the code conversion unit 57. In step S315, the subject information generated in step S302 is saved, the code information is updated in step S316, and the process returns to image capture (S301).

次に図3−2を参照して、デジタルカメラ100が撮影記録処理を指示された場合に実行する処理を説明する。なお、図3−2の処理は図3−1の処理と並行的に行われるものである。   Next, processing executed when the digital camera 100 is instructed to perform shooting and recording processing will be described with reference to FIG. The process of FIG. 3-2 is performed in parallel with the process of FIG.

まずステップS309において、デジタルカメラ100は、シャッタースイッチSW2(64)が押されたか否かの監視を行う。押された場合はステップS310において、保存されているコード情報を読み出し、ステップS311において、撮影画像を生成する。   First, in step S309, the digital camera 100 monitors whether or not the shutter switch SW2 (64) has been pressed. If pressed, the stored code information is read out in step S310, and a captured image is generated in step S311.

そして、ステップS312において、デジタルカメラ100は、ステップS310で取得したコード情報を撮影画像に付加し、インタフェース90及び94を介してCFやSDカード等の記録媒体に書き込みを行う。   In step S312, the digital camera 100 adds the code information acquired in step S310 to the photographed image, and writes it on a recording medium such as a CF or SD card via the interfaces 90 and 94.

次に図4−1〜図4−8を用いて、図3−1及び図3−2を用いて説明した処理の具体的な動作を説明する。   Next, specific operations of the processing described with reference to FIGS. 3-1 and 3-2 will be described with reference to FIGS.

まず図4−1に示す画像をライブビュー表示のために画像取込(ステップS301)をして、被写体情報生成部72により図4−1(b)に示すような被写体情報を生成する(S302)。次に被写体比較部71により前被写体情報と一致するか判定を行うが(S303)、ここでは新規の被写体情報であるため判定は一致しないとされ、パターン検出部59によりパターン領域の存在の判定が行われる(S304)。ここで、画像401には401aに示すパターン領域が存在するので、コード変換部57によりOCR処理が行われる(S305)。そしてOCR処理の結果を用いて、前コード情報と比較を行うが(S306)、新規のため判定結果は有効性が高いとされ、ステップS302で生成した被写体情報を保存し(S307)、コード情報を保存し(S308)、画像取込(S301)に戻る。   First, the image shown in FIG. 4A is captured for live view display (step S301), and subject information as shown in FIG. 4B is generated by the subject information generation unit 72 (S302). ). Next, the subject comparison unit 71 determines whether or not the information matches the previous subject information (S303). Here, since the subject information is new subject information, the determination does not match, and the pattern detection unit 59 determines the presence of the pattern region. Performed (S304). Here, since the pattern region indicated by 401a exists in the image 401, the code conversion unit 57 performs OCR processing (S305). Then, the result of the OCR process is used to compare with the previous code information (S306). However, the determination result is considered to be highly effective because it is new, and the subject information generated in step S302 is stored (S307). Are stored (S308), and the process returns to image capture (S301).

なお、ここで被写体情報とは、図4−1(b)に示すような情報であり、本例においては、輪郭画像415、文字情報、焦点距離情報、レンズ距離情報、人数情報等を含むものである。このような被写体情報は、画像の輪郭部分を抽出したり、コード情報を抽出したり、顔認識技術による人数情報を特定したり、被写体との距離情報やレンズ焦点距離情報を取得したりして得る。或いは、図示しないが画像を何分割かに分けるゾーン分割、オブジェクト認識等の技術により被写体を特定する等、複数の手法を用いて被写体情報としたりすることも一般的に行われている。
更なる方法としては、パターン認識が行われた画像から連続的に画像が拡大・縮小・移動が行われているか監視することにより、被写体情報の判定に利用することも可能である。しかしながら、連続的に監視する方法では、オートパワーオフにより撮影が中断された、空や地面のみの画像となってしまった、レンズが交換された、レンズキャップがされてしまった等の課題がある。そのため、前記方法や時間情報との併用により精度を高めることも可能であるが、ここではその方法については言及しない。
Here, the subject information is information as shown in FIG. 4B. In this example, the subject information includes a contour image 415, character information, focal length information, lens distance information, number information, and the like. . Such subject information can be obtained by extracting the contour portion of the image, extracting code information, specifying the number of people information by face recognition technology, obtaining distance information to the subject and lens focal length information. obtain. Alternatively, although not shown in the drawing, subject information is generally used by using a plurality of methods such as zone division that divides an image into several parts, object identification by a technique such as object recognition, and the like.
As a further method, it can be used for determination of subject information by monitoring whether an image is continuously enlarged / reduced / moved from an image subjected to pattern recognition. However, the continuous monitoring method has problems such as shooting interrupted due to auto power off, an image of only the sky or the ground, a lens exchange, a lens cap being used, etc. . For this reason, it is possible to improve accuracy by using the method and time information together, but the method is not mentioned here.

次にユーザーは、構図、フォーカス位置、露出等を表示部54を見ながら変更し、図4−2に示す画像402を経て、図4−3に示すような画像403を最適な撮影ポイントとして探したとする。この場合、その途中過程にある図4−2に示す画像402は、ライブビュー表示のために画像取込(S301)されており、画像402から被写体情報生成部72により被写体情報が生成される(S302)。そして被写体比較部71により前被写体情報と一致するか判定をされ(S303)、ここでは画像の一部が一致しているため判定結果は一致とされる。そしてパターン検出部59によりパターン領域の存在判定がされる(S304)。画像402においては402aに示すパターン領域が存在するので、コード変換部57にてOCR処理(S305)が行われる。そしてOCR処理の結果を用いて、前コード情報との比較(S306)をされるが、前コード情報の方がより有効性が高いので、コード情報は更新されずに、画像取込(S301)に戻る。   Next, the user changes the composition, focus position, exposure, and the like while looking at the display unit 54, and searches for an image 403 as shown in FIG. Suppose. In this case, an image 402 shown in FIG. 4B in the middle of the process is captured for live view display (S301), and subject information is generated from the image 402 by the subject information generation unit 72 ( S302). Then, it is determined by the subject comparison unit 71 whether the information matches the previous subject information (S303). Here, since a part of the images match, the determination result is matched. Then, the pattern detection unit 59 determines the presence of the pattern area (S304). Since the pattern area indicated by 402a exists in the image 402, the code conversion unit 57 performs OCR processing (S305). Then, the result of the OCR process is used for comparison with the previous code information (S306). Since the previous code information is more effective, the code information is not updated and the image is captured (S301). Return to.

次に図4−3に示す画像403においても、ライブビュー表示のための画像取込(ステップS301)がなされ、画像403から被写体情報生成部72により被写体情報が生成される(S302)。そして被写体比較部71により前被写体情報と一致するか判定をされ(S303)、ここでは画像の一部が一致しているため判定結果は一致とされ、パターン検出部59によりパターン領域の存在判定がされる(S304)。画像403においてはパターン領域が存在しないので、コード変換部57によるOCR処理は行われず、コード情報も更新されず、「二〇〇七年度入学式」のコード情報が残り、画像取込(S301)に戻る。   Next, also in the image 403 shown in FIG. 4C, image capture for live view display is performed (step S301), and subject information is generated from the image 403 by the subject information generation unit 72 (S302). Then, the subject comparison unit 71 determines whether or not the information matches the previous subject information (S303). Here, since a part of the image matches, the determination result is matched, and the pattern detection unit 59 determines the presence of the pattern region. (S304). Since there is no pattern area in the image 403, the OCR processing by the code conversion unit 57 is not performed, the code information is not updated, the code information of “FY2007 entrance ceremony” remains, and the image is captured (S301). Return to.

ここでシャッタースイッチ64が押される(ステップS309)と、ステップS308で保存された「二〇〇七年度入学式」情報が読み出される(ステップS310)。そして、デジタルカメラ100に設定されている撮影パラメータに従い、撮影画像を生成(ステップS311)する。そして、撮影画像には「二〇〇七年度入学式」のコード情報が付加され、インタフェース90及び94を介してCFやSD等の記録媒体に書き込まれることになる(ステップS312)。以上のように処理がなされることで、「二〇〇七年度入学式」のコード情報と撮影画像が自動的に関連付けされ、コード情報を検索、画像表示、印刷といった文字合成等に利用できるようになる。   Here, when the shutter switch 64 is pressed (step S309), the “2007 year entrance ceremony” information stored in step S308 is read (step S310). Then, a photographic image is generated according to the photographic parameters set in the digital camera 100 (step S311). Then, code information of “FY2007 entrance ceremony” is added to the photographed image, and is written to a recording medium such as CF or SD via the interfaces 90 and 94 (step S312). By performing the processing as described above, the code information of the “FY2007 Entrance Ceremony” and the photographed image are automatically associated so that the code information can be used for character composition such as search, image display, and printing. become.

更に、図4−4に示す画像404を撮影した場合について説明する。
図4−4に示す画像を撮影する場合、画像404はライブビュー表示のために画像取込(S301)され、被写体情報生成部72により図4−4(b)に示すような被写体情報が生成される。そして被写体比較部71により前被写体情報と一致するか判定される(S303)。ここでは、画像の一部が一致しているので、判定結果は一致となり、パターン検出部59によりパターン領域の存在判定がされる(S304)。画像404においてはパターン領域が存在しないため、コード変換部57によるOCR処理は行われず、コード情報も更新されないので、「二〇〇七年度入学式」のコード情報が残り、画像取込(S301)に戻る。
Furthermore, the case where the image 404 shown to FIGS. 4-4 is image | photographed is demonstrated.
When the image shown in FIG. 4-4 is taken, the image 404 is captured for live view display (S301), and subject information as shown in FIG. 4-4 (b) is generated by the subject information generation unit 72. Is done. Then, it is determined whether or not the subject comparison unit 71 matches the previous subject information (S303). Here, since a part of the images match, the determination results match, and the pattern detection unit 59 determines the presence of the pattern area (S304). Since there is no pattern area in the image 404, the OCR processing by the code conversion unit 57 is not performed, and the code information is not updated, so that the code information of “FY2007 entrance ceremony” remains and the image is captured (S301). Return to.

ここでシャッタースイッチ64が押される(ステップS309)と、ステップS308で保存された「二〇〇七年度入学式」情報が読み出される(ステップS310)。そして、デジタルカメラ100に設定されている撮影パラメータに従い、撮影画像が生成(ステップS311)される。そして、撮影画像には「二〇〇七年度入学式」のコード情報が付加され、インタフェース90及び94を介してCFやSD等の記録媒体に書き込まれることになる(ステップS312)。以上のように処理がなされることで、図4−4に示す画像404を撮影する場合においても、「二〇〇七年度入学式」のコード情報と撮影画像が自動的に関連付けされ、コード情報を検索、画像表示、印刷といった文字合成等に利用できるようになる。   Here, when the shutter switch 64 is pressed (step S309), the “2007 year entrance ceremony” information stored in step S308 is read (step S310). Then, a captured image is generated according to the shooting parameters set in the digital camera 100 (step S311). Then, code information of “FY2007 entrance ceremony” is added to the photographed image, and is written to a recording medium such as CF or SD via the interfaces 90 and 94 (step S312). By performing the processing as described above, even when the image 404 shown in FIG. 4-4 is captured, the code information of the “2007 entrance ceremony” and the captured image are automatically associated with each other. Can be used for character composition such as search, image display, and printing.

更に図4−5に示す画像405を撮影した場合について説明する。
図4−5に示す画像を撮影する場合、画像405はライブビュー表示のために画像取込(S301)され、被写体情報生成部72により図4−5(b)に示すような被写体情報が生成される。そして被写体比較部71により前被写体情報と一致するか判定される(S303)。ここでは、画像の一部が一致しているので、判定結果は一致となり、パターン検出部59によりパターン領域の存在判定がされる(S304)。画像405においてはパターン領域が存在しないため、コード変換部57によるOCR処理は行われず、コード情報も更新されないので、「二〇〇七年度入学式」のコード情報が残り、画像取込(S301)に戻る。
Further, a case where an image 405 shown in FIG.
When the image shown in FIG. 4-5 is taken, the image 405 is captured for live view display (S301), and subject information as shown in FIG. 4-5 (b) is generated by the subject information generation unit 72. Is done. Then, it is determined whether or not the subject comparison unit 71 matches the previous subject information (S303). Here, since a part of the images match, the determination results match, and the pattern detection unit 59 determines the presence of the pattern area (S304). Since there is no pattern area in the image 405, the OCR processing by the code conversion unit 57 is not performed, and the code information is not updated. Therefore, the code information of “FY2007 entrance ceremony” remains and the image is captured (S301). Return to.

ここでシャッタースイッチ64が押される(ステップS309)と、ステップS308で保存された「二〇〇七年度入学式」情報が読み出される(ステップS310)。そして、デジタルカメラ100に設定されている撮影パラメータに従い、撮影画像が生成(ステップS311)される。そして、撮影画像には「二〇〇七年度入学式」のコード情報が付加され、90及び94のインタフェースを介してCFやSD等の記録媒体に書き込まれることになる(ステップS312)。以上のように処理がなされることで、図4−5に示す画像405を撮影する場合においても、「二〇〇七年度入学式」のコード情報と撮影画像が自動的に関連付けされ、コード情報を検索、画像表示、印刷といった文字合成等に利用できるようになる。   Here, when the shutter switch 64 is pressed (step S309), the “2007 year entrance ceremony” information stored in step S308 is read (step S310). Then, a captured image is generated according to the shooting parameters set in the digital camera 100 (step S311). Then, the code information of “FY2007 entrance ceremony” is added to the photographed image, and is written in a recording medium such as CF or SD through the interfaces 90 and 94 (step S312). By performing the processing as described above, even when the image 405 shown in FIG. 4-5 is captured, the code information of the “2007 entrance ceremony” and the captured image are automatically associated with each other. Can be used for character composition such as search, image display, and printing.

更に図4−6に示す画像406を撮影した場合について説明する。
図4−6に示す画像を撮影する場合、画像406はライブビュー表示のために画像取込(S301)され、被写体情報生成部72により図4−6(b)に示すような被写体情報が生成される。そして被写体比較部71により前被写体情報と一致するか判定される(S303)。ここでは、画像の一部も一致していないので、判定結果は不一致となり、パターン検出部59によりパターン領域の存在判定がされる(S313)。画像406においてはパターン領域(406a)が存在するため、コード変換部57によるOCR処理が行われ(S314)、コード情報を「○△小学校入学式」に更新し、画像取込(S301)に戻る。
Further, a case where an image 406 shown in FIG.
When the image shown in FIG. 4-6 is taken, the image 406 is captured for live view display (S301), and subject information as shown in FIG. 4-6 (b) is generated by the subject information generation unit 72. Is done. Then, it is determined whether or not the subject comparison unit 71 matches the previous subject information (S303). Here, since part of the images also does not match, the determination result is inconsistent, and the pattern detection unit 59 determines the presence of the pattern area (S313). Since there is a pattern area (406a) in the image 406, the code conversion unit 57 performs OCR processing (S314), updates the code information to “◯ △ elementary school entrance ceremony”, and returns to image capture (S301). .

ここでシャッタースイッチ64が押される(ステップS309)と、ステップS316で保存された「○△小学校入学式」情報が読み出される(ステップS310)。そして、デジタルカメラ100に設定されている撮影パラメータに従い、撮影画像が生成(ステップS311)される。そして、撮影画像にはコード情報が付加され、インタフェース90及び94を介してCFやSD等の記録媒体に書き込まれることになる(ステップS312)。以上のように処理がなされることで、図4−6に示す画像406を撮影する場合においては、「○△小学校入学式」のコード情報と撮影画像が自動的に関連付けされ、コード情報を検索、画像表示、印刷といった文字合成等に利用できるようになる。   When the shutter switch 64 is pressed here (step S309), the “◯ △ elementary school entrance ceremony” information stored in step S316 is read (step S310). Then, a captured image is generated according to the shooting parameters set in the digital camera 100 (step S311). Then, code information is added to the photographed image and written to a recording medium such as CF or SD via the interfaces 90 and 94 (step S312). By processing as described above, when the image 406 shown in FIG. 4-6 is photographed, the code information of “○ △ Elementary School Entrance Ceremony” and the photographed image are automatically associated, and the code information is searched. It can be used for character composition such as image display and printing.

更に図4−7に示す画像407を撮影した場合について説明する。
図4−7に示す画像を撮影する場合、画像407はライブビュー表示のために画像取込(S301)され、被写体情報生成部72により図4−7(b)に示すような被写体情報が生成される。そして被写体比較部71により前被写体情報と一致するか判定される(S303)。ここでは、画像の一部も一致していないので、判定結果は不一致となり、パターン検出部59によりパターン領域の存在判定がされる(S313)。画像407においてはパターン領域が存在しないため、コード変換部57によるOCR処理が行われず、コード情報を初期化(S317)し、画像取込(S301)に戻る。
Further, a case where an image 407 shown in FIG.
When the image shown in FIG. 4-7 is taken, the image 407 is captured for live view display (S301), and subject information as shown in FIG. 4-7 (b) is generated by the subject information generation unit 72. Is done. Then, it is determined whether or not the subject comparison unit 71 matches the previous subject information (S303). Here, since part of the images also does not match, the determination result is inconsistent, and the pattern detection unit 59 determines the presence of the pattern area (S313). Since there is no pattern area in the image 407, the OCR processing by the code conversion unit 57 is not performed, the code information is initialized (S317), and the process returns to the image capture (S301).

ここでシャッタースイッチ64が押される(ステップS309)と、ステップS308及びS316で保存された情報が読み出される(ステップS310)。そして、デジタルカメラ100に設定されている撮影パラメータに従い、撮影画像が生成(ステップS311)される。そして、撮影画像にはコード情報が付加され、インタフェース90及び94を介してCFやSD等の記録媒体に書き込まれることになる(ステップS312)。以上のように処理がなされ、図4−7に示す画像407を撮影する場合においては、コード情報がないことが撮影画像に自動的に関連付けされる。そして、コード情報を検索、画像表示、印刷といった文字合成等に誤って利用されないようにする。   When the shutter switch 64 is pressed (step S309), the information stored in steps S308 and S316 is read (step S310). Then, a captured image is generated according to the shooting parameters set in the digital camera 100 (step S311). Then, code information is added to the photographed image and written to a recording medium such as CF or SD via the interfaces 90 and 94 (step S312). Processing is performed as described above, and when the image 407 shown in FIG. 4-7 is captured, the absence of code information is automatically associated with the captured image. The code information is not erroneously used for character composition such as search, image display, and printing.

以上のように、第2の実施の形態のデジタルカメラ100では、ライブビュー動作中にパターン領域を検出し個別具体的なコード情報として記憶すると共に、被写体情報を特定しておき、被写体情報を考慮して、コード情報を更新するようにした。そして、コード情報を撮影された撮影画像に関連付けて管理するようにした。このようなデジタルカメラ100では、撮影画像に関する個別具体的なコード情報をパソコンやカメラで文字情報として付加する等の煩わしい作業を軽減することができるため、操作性の向上を実現することができる。また、特にカメラ等の入力方法に一部制約があるデバイスにおいては、非常に煩わしい文字入力の頻度を少なくできるため、操作性向上の効果が高い。また、コード情報を前回と今回の被写体情報を比較し比較結果に応じて管理することで、誤ったコード情報を撮影画像に関連付けしなくなり、更なる操作性の向上を実現することができる。   As described above, in the digital camera 100 according to the second embodiment, the pattern area is detected and stored as individual specific code information during the live view operation, the subject information is specified, and the subject information is considered. And the code information was updated. The code information is managed in association with the photographed image. In such a digital camera 100, since it is possible to reduce troublesome work such as adding individual specific code information relating to a photographed image as character information with a personal computer or a camera, operability can be improved. In particular, in a device that has some restrictions on the input method, such as a camera, the frequency of extremely troublesome character input can be reduced, and the operability improvement effect is high. Also, by comparing the code information with the subject information of the previous time and the current time and managing according to the comparison result, the incorrect code information is not associated with the photographed image, and further operability can be improved.

ここで、図5(a)〜(d)は、図1で示した辞書データ74の一部の例であり、「Bitmap」から文字に変換するためのデータ等を示している。パターン検出部59、コード変換部57に対し、図5のような辞書データを含むことで、顔から人名、標識から標識名、会社ロゴから会社名を特定することが可能となる。   Here, FIGS. 5A to 5D are examples of a part of the dictionary data 74 shown in FIG. 1, and show data and the like for converting “Bitmap” into characters. By including the dictionary data as shown in FIG. 5 for the pattern detection unit 59 and the code conversion unit 57, it is possible to specify the person name from the face, the sign name from the sign, and the company name from the company logo.

以上で説明した実施の形態においては、パターン検出部59により、文字で構成されたパターン領域を検出するようにし、それをコード情報とする例を挙げたが、本発明はこの態様に限定されるものではない。例えば会社ロゴ、標識、顔等をパターン領域として検出し、それをコード情報としてもよく、更にそれらに対応する文字列に変換して印刷画像或いは表示画像に付加するようにしてもよい。   In the embodiment described above, the pattern detection unit 59 detects a pattern area composed of characters and uses it as code information. However, the present invention is limited to this mode. It is not a thing. For example, a company logo, a sign, a face or the like may be detected as a pattern area, which may be used as code information, and further converted into a character string corresponding to the code information and added to a print image or display image.

なお、本発明を実現するために、上述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体を用いても良い。この場合には記録媒体をシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによって本発明の目的が達成される。   In order to realize the present invention, a recording medium in which a program code (computer program) of software that realizes the functions of the above-described embodiments may be used. In this case, the object of the present invention is achieved by supplying the recording medium to the system or apparatus and reading and executing the program code stored in the recording medium by the computer (or CPU or MPU) of the system or apparatus.

この場合、記録媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記録媒体は本発明を構成することになる。   In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the program code itself and the recording medium storing the program code constitute the present invention.

プログラムコードを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a recording medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)等が実際の処理の一部又は全部を行う場合も含まれることは言うまでもない。   Needless to say, the OS (basic system or operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれてもよい。この場合には、書き込まれたプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行ってもよい。   Furthermore, the program code read from the recording medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. In this case, based on the instruction of the written program code, the CPU or the like provided in the function expansion board or function expansion unit may perform part or all of the actual processing.

14 撮像素子
50 システム制御回路
57 コード変換部
59 パターン検出部
71 被写体比較部
72 被写体情報生成部
73 コード比較部
74 辞書データ
100 デジタルカメラ
DESCRIPTION OF SYMBOLS 14 Image sensor 50 System control circuit 57 Code conversion part 59 Pattern detection part 71 Subject comparison part 72 Subject information generation part 73 Code comparison part 74 Dictionary data 100 Digital camera

Claims (5)

被写体を撮影して画像を取得する撮像手段と、
使用者による撮影指示を受け付ける受け付け手段と、
前記撮影指示を受け付ける前に前記撮像手段により取得された画像中の領域からパターン認識を行うパターン認識手段と、
前記パターン認識手段の認識結果を記憶する記憶手段と、
前記撮影指示を受け付けた後に前記撮像手段により取得され、前記パターン認識手段によってパターン認識が行われる領域が含まれていない画像に、前記記憶手段に記憶されている前記認識結果を、関連付ける関連付け手段と
前記パターン認識手段によってパターン認識が行われた画像の被写体と、前記受け付け手段が撮影指示を受け付ける前に前記撮像手段により繰り返し取得される画像の中の被写体とが一致しない場合であって、且つ前記パターン認識手段によってパターン認識が行われる領域が含まれていない画像が前記撮像手段により撮像された場合には、前記記憶手段に記憶されている前記認識結果を初期化する制御手段と、を有することを特徴とする撮像装置。
Imaging means for capturing an image by photographing a subject;
Receiving means for receiving a shooting instruction by a user;
Pattern recognition means for performing pattern recognition from an area in the image acquired by the imaging means before receiving the shooting instruction;
Storage means for storing a recognition result of the pattern recognition means;
An association unit that associates the recognition result stored in the storage unit with an image that is acquired by the imaging unit after receiving the photographing instruction and does not include an area in which pattern recognition is performed by the pattern recognition unit; ,
The subject of the image that has been pattern-recognized by the pattern recognition means and the subject in the image that is repeatedly acquired by the imaging means before the acceptance means accepts a shooting instruction; and A control unit that initializes the recognition result stored in the storage unit when an image that does not include an area in which pattern recognition is performed by the pattern recognition unit is captured by the imaging unit. An imaging apparatus characterized by the above.
更に、新たに取得された画像からパターン認識した認識結果が、前記記憶手段に記憶されている認識結果よりも有効性が高いと判定した場合に、前記記憶手段に記憶されている認識結果を更新する更新手段を有することを特徴とする請求項1記載の撮像装置。 Further, when it is determined that the recognition result obtained by pattern recognition from the newly acquired image is more effective than the recognition result stored in the storage unit, the recognition result stored in the storage unit is updated. The imaging apparatus according to claim 1 , further comprising an updating unit configured to perform updating. 前記撮影指示を受け付ける前に前記撮像手段により取得される画像と、当該画像よりも後に前記撮像手段により取得される画像との少なくとも一部の領域が一致する場合であって、且つ前記当該画像よりも後に前記撮像手段により取得される画像からパターン認識した認識結果が、前記記憶手段に記憶されている認識結果よりも有効性が高いと判定した場合に、前記記憶手段に記憶されている認識結果を更新する更新手段を有することを特徴とする請求項1に記載の撮像装置。   The image acquired by the imaging unit before accepting the shooting instruction and the image acquired by the imaging unit after the image coincide with each other, and from the image The recognition result stored in the storage means when it is determined that the recognition result obtained by pattern recognition from the image acquired by the imaging means is more effective than the recognition result stored in the storage means. The imaging apparatus according to claim 1, further comprising an updating unit that updates the data. 前記撮影指示を受け付ける前に前記撮像手段により取得された画像は、ライブビュー表示を行う為に取得される画像であることを特徴とする請求項1ないしのいずれか1項に記載の撮像装置。 The imaging instruction image acquired by the imaging unit before accepting the imaging apparatus according to any one of claims 1 to 3, characterized in that the images acquired for the live view display . 被写体を撮影して画像を取得する撮像手段と、
使用者による撮影指示を受け付ける受け付け手段とを有する撮像装置の制御方法であって、
前記撮影指示を受け付ける前に前記撮像手段により取得された画像中の領域からパターン認識を行うパターン認識工程と、
前記パターン認識工程の認識結果をメモリに記憶する記憶工程と、
前記撮影指示を受け付けた後に前記撮像手段により取得され、前記パターン認識工程でパターン認識が行われる領域が含まれていない画像に、前記記憶工程でメモリに記憶された前記認識結果を、関連付ける関連付け工程と
前記パターン認識工程によってパターン認識が行われた画像の被写体と、前記受け付け手段が撮影指示を受け付ける前に前記撮像手段により繰り返し取得される画像の中の被写体とが一致しない場合であって、且つ前記パターン認識工程によってパターン認識が行われる領域が含まれていない画像が前記撮像手段により撮像された場合には、前記記憶工程によって記憶されている前記認識結果を初期化する制御工程と、を有することを特徴とする制御方法。
Imaging means for capturing an image by photographing a subject;
A control method for an imaging apparatus having a receiving means for receiving a shooting instruction by a user,
A pattern recognition step of performing pattern recognition from an area in the image acquired by the imaging means before receiving the shooting instruction;
A storage step of storing a recognition result of the pattern recognition step in a memory;
An associating step of associating the recognition result stored in the memory in the storing step with an image acquired by the imaging means after receiving the photographing instruction and not including an area where pattern recognition is performed in the pattern recognizing step. and,
A case where a subject of an image subjected to pattern recognition in the pattern recognition step and a subject in an image repeatedly acquired by the imaging unit before the receiving unit receives a shooting instruction; and A control step of initializing the recognition result stored in the storage step when an image that does not include an area where pattern recognition is performed in the pattern recognition step is captured by the imaging unit. A control method characterized by the above.
JP2012002594A 2012-01-10 2012-01-10 Imaging apparatus and control method thereof Expired - Fee Related JP5587351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012002594A JP5587351B2 (en) 2012-01-10 2012-01-10 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012002594A JP5587351B2 (en) 2012-01-10 2012-01-10 Imaging apparatus and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007295989A Division JP4906685B2 (en) 2007-11-14 2007-11-14 Imaging apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2012080588A JP2012080588A (en) 2012-04-19
JP5587351B2 true JP5587351B2 (en) 2014-09-10

Family

ID=46240215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012002594A Expired - Fee Related JP5587351B2 (en) 2012-01-10 2012-01-10 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5587351B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374481A (en) * 2001-06-18 2002-12-26 Matsushita Electric Ind Co Ltd File name setting system
JP4239442B2 (en) * 2001-07-24 2009-03-18 カシオ計算機株式会社 Electronic camera and program thereof
JP2003198909A (en) * 2001-12-26 2003-07-11 Canon Inc Image pickup device, control method therefor, and control program
JP4193691B2 (en) * 2003-12-26 2008-12-10 カシオ計算機株式会社 Imaging apparatus, moving image file recording method, and program
JP2006101156A (en) * 2004-09-29 2006-04-13 Casio Comput Co Ltd Information processing device and program
JP2006109141A (en) * 2004-10-06 2006-04-20 Canon Inc Electronic camera
JP2007011738A (en) * 2005-06-30 2007-01-18 Sanyo Electric Co Ltd Character processor

Also Published As

Publication number Publication date
JP2012080588A (en) 2012-04-19

Similar Documents

Publication Publication Date Title
JP4262082B2 (en) Image processing apparatus, control method therefor, program, and storage medium
US7756362B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
US8373787B2 (en) Image processing apparatus, image processing system, control method of the image processing apparatus, and recording medium having recorded thereon a computer program for executing the control program
JP3862404B2 (en) Image processing apparatus and method, image file format, and storage medium
US8908906B2 (en) Image processing apparatus and image processing method, and computer program for causing computer to execute control method of image processing apparatus
JP4891270B2 (en) Image editing apparatus, image editing method and program
JP2006197243A (en) Imaging apparatus and method, program, and storage medium
JP2005176136A (en) Image processor, image reproducing method, program and recording medium
JP2004120069A (en) Image processing apparatus, image processing method, and program for realizing the method
JP4906685B2 (en) Imaging apparatus, control method thereof, and program
JP4958680B2 (en) IMAGING DEVICE, WHITE BALANCE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
KR100756155B1 (en) Image processing apparatus, control method thereof and storage medium
US8301012B2 (en) Image reproducing apparatus for reproducing images recorded in accordance with different rules and control method therefor
JP2007328694A (en) Image processing apparatus and digital camera
JP4498169B2 (en) Image processing apparatus and control method thereof
JP5587351B2 (en) Imaging apparatus and control method thereof
JP4574382B2 (en) Information retrieval apparatus, control method therefor, program, and storage medium
JP2010009228A (en) Image processor, image processing method, computer program, and storage medium
JP4574426B2 (en) Data processing apparatus and data processing method
JP2006287588A (en) Image processing apparatus and method, data file structure, computer program, and storage medium
JP5111215B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2007251414A (en) Image photographing unit, control method therefor, and control program
JP4902512B2 (en) Imaging apparatus, control method thereof, and program
JP2008124900A (en) Image processing apparatus
JP2002044577A (en) Image processor and control method for the image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140723

R151 Written notification of patent or utility model registration

Ref document number: 5587351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees