JP2013012933A - Photographic memo creation device - Google Patents

Photographic memo creation device Download PDF

Info

Publication number
JP2013012933A
JP2013012933A JP2011144730A JP2011144730A JP2013012933A JP 2013012933 A JP2013012933 A JP 2013012933A JP 2011144730 A JP2011144730 A JP 2011144730A JP 2011144730 A JP2011144730 A JP 2011144730A JP 2013012933 A JP2013012933 A JP 2013012933A
Authority
JP
Japan
Prior art keywords
memo
person
name
spot
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011144730A
Other languages
Japanese (ja)
Inventor
Mariko Mori
麻里子 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011144730A priority Critical patent/JP2013012933A/en
Priority to PCT/JP2012/064436 priority patent/WO2013001990A1/en
Publication of JP2013012933A publication Critical patent/JP2013012933A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3204Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a user, sender, addressee, machine or electronic recording medium
    • H04N2201/3205Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a user, sender, addressee, machine or electronic recording medium of identification information, e.g. name or ID code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3212Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image
    • H04N2201/3214Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image of a date
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3253Position information, e.g. geographical position at time of capture, GPS data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3273Display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Studio Devices (AREA)
  • Instructional Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve performance of preparing a format of an album memo.SOLUTION: A CPU 30 detects the name of a person appearing in photographic image data by reference to a person dictionary DIC1, detects the name of a body different from the person appearing in the photographic image data by reference to a body dictionary DIC2, and detects the name of the spot where the photograph is taken based upon output of a GPS device 42 and map data. Then the CPU 30 describes at least one of a person memo representing the detected name of the person and a body memo representing the detected name of the body to create an album memo in which a spot memo representing the detected name of the spot is described. At this time, a postpositional particle of Japanese which should be added to the spot memo in the album memory is specified in a different manner corresponding to description styles of the person memo and body memo. Further, a postpositional particle which should be added to the person memo in the album memo is specified in a different manner corresponding to the number of names appearing in the person memo.

Description

この発明は、撮影メモ作成装置に関し、特に撮影画像に付加されるメモを作成する、撮影メモ作成装置に関する。   The present invention relates to a photographing memo creation device, and more particularly to a photographing memo creation device that creates a memo added to a photographed image.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、CPUは、複数の画像データを含むクラスタを生成し、FATデータまたはExifデータに基づく第1クラスタ名候補および第2クラスタ名候補とユーザによって入力された第3クラスタ名候補とを有するスライドショウテーブルを作成する。画像表示画面は、画像データの内容を示唆するクラスタ名として、第1クラスタ名候補,第2クラスタ名候補および第3クラスタ名候補のいずれか2つを結合して一覧表示する。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the CPU generates a cluster including a plurality of image data, and the first cluster name candidate and the second cluster name candidate based on the FAT data or Exif data and the third cluster name candidate input by the user. And create a slideshow table. The image display screen displays a list by combining any two of the first cluster name candidate, the second cluster name candidate, and the third cluster name candidate as cluster names that suggest the contents of the image data.

特許4416836号公報Japanese Patent No. 4416836

しかし、第1クラスタ名候補,第2クラスタ名候補および第3クラスタ名候補の中から選択された2つのクラスタ名候補は画面上に並列表示されるに留まり、表示されたクラスタ名つまり撮影メモの体裁が良好であるとは言えない。   However, the two cluster name candidates selected from the first cluster name candidate, the second cluster name candidate, and the third cluster name candidate are only displayed in parallel on the screen, and the displayed cluster name, that is, the shooting memo. It cannot be said that the appearance is good.

それゆえに、この発明の主たる目的は、撮影メモの体裁を整える性能を高めることができる、撮影メモ作成装置を提供することである。   Therefore, a main object of the present invention is to provide a photographing memo creating apparatus capable of improving the performance of arranging the appearance of the photographing memo.

この発明に従う撮影メモ作成装置(10:実施例で相当する参照符号。以下同じ)は、撮影画像に現れた人物の名称を検出する第1検出手段(S43~S61)、撮影画像に現れた人物と異なる物体の名称を検出する第2検出手段(S65~S69, S49~S61)、撮影が行われたスポットの名称を検出する第3検出手段(S75)、第1検出手段によって検出された名称を表す人物メモおよび第2検出手段によって検出された名称を表す物体メモのいずれか一方と第3検出手段によって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成手段(S115~S117, S131~S137, S141, S145~S47)、作成手段によって作成される撮影メモにおいてスポットメモに付すべき助詞を人物メモおよび物体メモの記述態様に応じて異なる要領で指定する第1指定手段(S119~S129)、および作成手段によって作成される撮影メモにおいて人物メモに付すべき助詞を人物メモに表れる名称の数に応じて異なる要領で指定する第2指定手段(S131~S133, S139, S143)を備える。   The photographing memo creating device according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes first detection means (S43 to S61) for detecting the name of a person appearing in the photographed image, and the person appearing in the photographed image. Second detection means (S65 to S69, S49 to S61) for detecting the name of an object different from the third detection means (S75) for detecting the name of the spot where the image was taken, and the name detected by the first detection means Creating means for creating a shooting memo in which one of the person memo representing the name and the object memo representing the name detected by the second detecting means and the spot memo representing the name detected by the third detecting means are described (S115) ~ S117, S131 ~ S137, S141, S145 ~ S47), first designation means for designating the particles to be added to the spot memo in the photographing memo created by the creation means in a different manner depending on the description mode of the person memo and the object memo (S119 to S129) and The second specifying means (S131 to S133, S139, S143) for specifying the particles to be attached to the person memo in the shooting memo created in a different manner according to the number of names appearing in the person memo is provided.

好ましくは、名称が各々に割り当てられた1または2以上の人物の特徴量を保持する第1保持手段(DIC1)、および名称が各々に割り当てられた1または2以上の物体の特徴量を保持する第2保持手段(DIC2)がさらに備えられ、第1検出手段は第1保持手段によって保持された特徴量を参照して人物の名称を検出し、第2検出手段は第2保持手段によって保持された特徴量を参照して物体の名称を検出する。   Preferably, the first holding means (DIC1) that holds the feature amount of one or more persons each assigned with a name, and the feature amount of one or more objects each assigned a name. Second holding means (DIC2) is further provided, the first detecting means detects the name of the person with reference to the feature amount held by the first holding means, and the second detecting means is held by the second holding means. The name of the object is detected with reference to the feature amount.

好ましくは、現在位置を測定する測定手段(42)、および地図データを保持する保持手段(46)がさらに備えられ、第2検出手段は測定手段によって測定された位置と保持手段によって保持された地図データとを参照してスポットの名称を検出する。   Preferably, a measuring means (42) for measuring the current position and a holding means (46) for holding the map data are further provided, and the second detecting means is the position measured by the measuring means and the map held by the holding means. The name of the spot is detected with reference to the data.

さらに好ましくは、作成手段によって作成された撮影メモ上のスポットメモを編集操作に応答して更新する第1更新手段(S173~S175)、および保持手段によって保持された地図データ上の名称を第1更新手段によって更新されたスポットメモを参照して更新する第2更新手段(S183~S185)がさらに備えられる。   More preferably, the first update means (S173 to S175) for updating the spot memo on the shooting memo created by the creation means in response to the editing operation, and the name on the map data held by the holding means is the first name. Second update means (S183 to S185) for updating by referring to the spot memo updated by the update means is further provided.

好ましくは、作成手段は人物メモを物体メモに優先して撮影メモに記述する記述調整手段(S131~S135)を含む。   Preferably, the creating means includes a description adjusting means (S131 to S135) that describes the person memo in the shooting memo in preference to the object memo.

好ましくは、第1検出手段の検出対象は特定人物の名称を含み、作成手段は特定人物の名称を排除して人物メモを作成する人物メモ作成手段(S137, S141)を含む。   Preferably, the detection target of the first detection means includes the name of a specific person, and the creation means includes person memo creation means (S137, S141) for creating a personal memo by excluding the name of the specific person.

さらに好ましくは、特定人物は撮影メモ作成装置の所有者に相当する。   More preferably, the specific person corresponds to the owner of the photographing memo creating apparatus.

好ましくは、シーンを捉える撮像手段(16)、および撮像手段の出力に基づいて撮影画像を作成する作成手段(20)がさらに備えられる。   Preferably, an imaging means (16) for capturing a scene and a creation means (20) for creating a captured image based on the output of the imaging means are further provided.

この発明に従う撮影メモ作成プログラムは、撮影メモ作成装置(10)のプロセッサ(30)に、撮影画像に現れた人物の名称を検出する第1検出ステップ(S43~S61)、撮影画像に現れた人物と異なる物体の名称を検出する第2検出ステップ(S65~S69, S49~S61)、撮影が行われたスポットの名称を検出する第3検出ステップ(S75)、第1検出ステップによって検出された名称を表す人物メモおよび第2検出ステップによって検出された名称を表す物体メモのいずれか一方と第3検出ステップによって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成ステップ(S115~S117, S131~S137, S141, S145~S47)、作成ステップによって作成される撮影メモにおいてスポットメモに付すべき助詞を人物メモおよび物体メモの記述態様に応じて異なる要領で指定する第1指定ステップ(S119~S129)、および作成ステップによって作成される撮影メモにおいて人物メモに付すべき助詞を人物メモに表れる名称の数に応じて異なる要領で指定する第2指定ステップ(S131~S133, S139, S143)を実行させるための、撮影メモ作成プログラムである。   The shooting memo creation program according to the present invention is a first detection step (S43 to S61) for detecting the name of a person appearing in a photographed image in the processor (30) of the photograph memo creating apparatus (10), and a person appearing in the photographed image. Second detection step (S65 to S69, S49 to S61) for detecting the name of an object different from the third detection step (S75) for detecting the name of the spot where the image was taken, and the name detected by the first detection step Creating step (S115) for creating a shooting memo in which one of the person memo representing the name and the object memo representing the name detected in the second detection step and the spot memo representing the name detected in the third detection step are described ~ S117, S131 ~ S137, S141, S145 ~ S47), the first to specify the particles to be attached to the spot memo in the shooting memo created in the creation step in a different manner depending on the description mode of the person memo and the object memo A second specifying step (S131 to S133, S139) in which the particles to be added to the person memo in the photographing memo created in the creating step are designated in different ways depending on the number of names appearing in the person memo , S143).

この発明に従う撮影メモ作成方法は、撮影メモ作成装置(10)によって実行される撮影メモ作成方法であって、撮影画像に現れた人物の名称を検出する第1検出ステップ(S43~S61)、撮影画像に現れた人物と異なる物体の名称を検出する第2検出ステップ(S65~S69, S49~S61)、撮影が行われたスポットの名称を検出する第3検出ステップ(S75)、第1検出ステップによって検出された名称を表す人物メモおよび第2検出ステップによって検出された名称を表す物体メモのいずれか一方と第3検出ステップによって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成ステップ(S115~S117, S131~S137, S141, S145~S47)、作成ステップによって作成される撮影メモにおいてスポットメモに付すべき助詞を人物メモおよび物体メモの記述態様に応じて異なる要領で指定する第1指定ステップ(S119~S129)、および作成ステップによって作成される撮影メモにおいて人物メモに付すべき助詞を人物メモに表れる名称の数に応じて異なる要領で指定する第2指定ステップ(S131~S133, S139, S143)を備える。   The shooting memo creation method according to the present invention is a shooting memo creation method executed by the shooting memo creation device (10), and includes a first detection step (S43 to S61) for detecting the name of a person appearing in a shot image, and shooting. Second detection step (S65 to S69, S49 to S61) for detecting the name of an object different from the person appearing in the image, third detection step (S75) for detecting the name of the spot where the image was taken, and first detection step A shooting memo in which one of the person memo representing the name detected by the object memo and the object memo representing the name detected by the second detection step and the spot memo representing the name detected by the third detection step is created. Creation steps (S115 to S117, S131 to S137, S141, S145 to S47), and the particles to be attached to the spot memo in the shooting memo created by the creation step differ depending on the description mode of the person memo and the object memo. A first specifying step (S119 to S129) for specifying in a manner, and a second specifying step for specifying a particle to be added to a person memo in a shooting memo created in the creation step in a different manner depending on the number of names appearing in the person memo (S131 to S133, S139, S143).

この発明に従う外部制御プログラムは、メモリ(46)に保存された内部制御プログラムに従う処理を実行するプロセッサ(30)を備える撮影メモ作成装置に供給される外部制御プログラムであって、撮影画像に現れた人物の名称を検出する第1検出ステップ(S43~S61)、撮影画像に現れた人物と異なる物体の名称を検出する第2検出ステップ(S65~S69, S49~S61)、撮影が行われたスポットの名称を検出する第3検出ステップ(S75)、第1検出ステップによって検出された名称を表す人物メモおよび第2検出ステップによって検出された名称を表す物体メモのいずれか一方と第3検出ステップによって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成ステップ(S115~S117, S131~S137, S141, S145~S47)、作成ステップによって作成される撮影メモにおいてスポットメモに付すべき助詞を人物メモおよび物体メモの記述態様に応じて異なる要領で指定する第1指定ステップ(S119~S129)、および作成ステップによって作成される撮影メモにおいて人物メモに付すべき助詞を人物メモに表れる名称の数に応じて異なる要領で指定する第2指定ステップ(S131~S133, S139, S143)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention is an external control program supplied to a photographing memo creating device including a processor (30) that executes processing according to an internal control program stored in a memory (46), and appears in a photographed image. First detection step (S43 to S61) for detecting the name of the person, second detection step (S65 to S69, S49 to S61) for detecting the name of an object different from the person appearing in the captured image, spot where the image was taken The third detection step (S75) for detecting the name of the person, the person memo representing the name detected by the first detection step, and the object memo representing the name detected by the second detection step and the third detection step Creation step (S115 to S117, S131 to S137, S141, S145 to S47) for creating a shooting memo that describes the spot memo representing the detected name, and the shooting memo created by the creation step The first designation step (S119 to S129) for designating the particle to be attached to the spot memo in a different manner depending on the description mode of the person memo and the object memo, and the particle to be attached to the person memo in the shooting memo created by the creation step This is an external control program for causing a processor to execute a second designation step (S131 to S133, S139, S143) that is designated in a different manner depending on the number of names appearing in the person memo in cooperation with the internal control program.

この発明に従う撮影メモ作成装置(10)は、外部制御プログラムを取り込む取り込み手段(48)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(46)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(30)を備える撮影メモ作成装置であって、外部制御プログラムは、撮影画像に現れた人物の名称を検出する第1検出ステップ(S43~S61)、撮影画像に現れた人物と異なる物体の名称を検出する第2検出ステップ(S65~S69, S49~S61)、撮影が行われたスポットの名称を検出する第3検出ステップ(S75)、第1検出ステップによって検出された名称を表す人物メモおよび第2検出ステップによって検出された名称を表す物体メモのいずれか一方と第3検出ステップによって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成ステップ(S115~S117, S131~S137, S141, S145~S47)、作成ステップによって作成される撮影メモにおいてスポットメモに付すべき助詞を人物メモおよび物体メモの記述態様に応じて異なる要領で指定する第1指定ステップ(S119~S129)、および作成ステップによって作成される撮影メモにおいて人物メモに付すべき助詞を人物メモに表れる名称の数に応じて異なる要領で指定する第2指定ステップ(S131~S133, S139, S143)を内部制御プログラムと協働して実行するプログラムに相当する。   The photographing memo creating device (10) according to the present invention executes a process according to an importing means (48) for fetching an external control program, and an external control program fetched by the fetching means and an internal control program stored in the memory (46). A photographing memo creating device including a processor (30) that performs a first detection step (S43 to S61) for detecting a name of a person appearing in a photographed image, and an object different from the person appearing in the photographed image A second detection step (S65 to S69, S49 to S61) for detecting the name of the spot, a third detection step (S75) for detecting the name of the spot where the image was taken, and a person representing the name detected by the first detection step Photographing in which one of the memo and the object memo representing the name detected by the second detection step and the spot memo representing the name detected by the third detection step are described The creation step (S115 to S117, S131 to S137, S141, S145 to S47) for creating a model, and the particles to be attached to the spot memo in the shooting memo created by the creation step differ depending on the description mode of the person memo and the object memo A first specifying step (S119 to S129) for specifying in a manner, and a second specifying step for specifying a particle to be added to a person memo in a shooting memo created in the creation step in a different manner depending on the number of names appearing in the person memo This corresponds to a program that executes (S131 to S133, S139, S143) in cooperation with the internal control program.

この発明によれば、撮影メモには、スポットメモが記述され、かつ人物メモまたは物体メモが記述される。ここで、スポットメモに付される助詞は、人物メモおよび物体メモの記述態様に応じて異なる。また、人物メモが撮影メモに記述される場合、人物メモに付される助詞は人物メモに表れる名称の数に応じて異なる。これによって、撮影メモの体裁を整える性能が向上する。   According to the present invention, a spot memo is described in the photographing memo, and a person memo or an object memo is described. Here, the particle attached to the spot memo differs depending on the description mode of the person memo and the object memo. In addition, when a person memo is described in a shooting memo, the particle attached to the person memo varies depending on the number of names appearing in the person memo. This improves the performance of adjusting the appearance of the shooting memo.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. (A)は人物辞書の構成の一例を示す図解図であり、(B)は物体辞書の構成の一例を示す図解図である。(A) is an illustrative view showing an example of a configuration of a person dictionary, and (B) is an illustrative view showing an example of a configuration of an object dictionary. 人物レジスタおよび物体レジスタの各々の構成の一例を示す図解図である。It is an illustration figure which shows an example of each structure of a person register | resistor and an object register | resistor. (A)はLCDモニタに表示されるスルー画像の一例を示す図解図であり、(B)はLCDモニタに表示されるスルー画像の他の一例を示す図解図である。(A) is an illustration figure which shows an example of the through image displayed on an LCD monitor, (B) is an illustration figure which shows another example of the through image displayed on an LCD monitor. (A)はLCDモニタに表示されるスルー画像のその他の一例を示す図解図であり、(B)はLCDモニタに表示されるスルー画像のさらにその他の一例を示す図解図である。(A) is an illustrative view showing another example of the through image displayed on the LCD monitor, and (B) is an illustrative view showing still another example of the through image displayed on the LCD monitor. (A)はLCDモニタに表示されるスルー画像の他の一例を示す図解図であり、(B)はLCDモニタに表示されるスルー画像のその他の一例を示す図解図である。(A) is an illustrative view showing another example of the through image displayed on the LCD monitor, and (B) is an illustrative view showing another example of the through image displayed on the LCD monitor. (A)はLCDモニタに表示される再生画像および撮影メモの一例を示す図解図であり、(B)はLCDモニタに表示される再生画像および撮影メモの他の一例を示す図解図である。(A) is an illustration figure which shows an example of the reproduction | regeneration image and imaging | photography memo displayed on an LCD monitor, (B) is an illustration figure which shows an example of the reproduction | regeneration image and imaging | photography memo displayed on an LCD monitor. (A)はLCDモニタに表示される再生画像および撮影メモのその他の一例を示す図解図であり、(B)はLCDモニタに表示される再生画像および撮影メモのさらにその他の一例を示す図解図である。(A) is an illustrative view showing another example of a reproduced image and a photographed memo displayed on the LCD monitor, and (B) is an illustrative view showing still another example of the reproduced image and the photographed memo displayed on the LCD monitor. It is. (A)はLCDモニタに表示される再生画像および撮影メモの他の一例を示す図解図であり、(B)はLCDモニタに表示される再生画像および撮影メモのその他の一例を示す図解図である。(A) is an illustrative view showing another example of a reproduced image and a photographed memo displayed on the LCD monitor, and (B) is an illustrative diagram showing another example of the reproduced image and the photographed memo displayed on the LCD monitor. is there. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. この発明の他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の撮影メモ作成装置は、基本的に次のように構成される。第1検出手段1は、撮影画像に現れた人物の名称を検出する。第2検出手段2は、撮影画像に現れた人物と異なる物体の名称を検出する。第3検出手段3は、撮影が行われたスポットの名称を検出する。作成手段4は、第1検出手段1によって検出された名称を表す人物メモおよび第2検出手段2によって検出された名称を表す物体メモのいずれか一方と第3検出手段3によって検出された名称を表すスポットメモとが記述された撮影メモを作成する。第1指定手段5は、作成手段4によって作成される撮影メモにおいてスポットメモに付すべき助詞を人物メモおよび物体メモの記述態様に応じて異なる要領で指定する。第2指定手段6は、作成手段4によって作成される撮影メモにおいて人物メモに付すべき助詞を人物メモに表れる名称の数に応じて異なる要領で指定する。   Referring to FIG. 1, the photographing memo creating apparatus of this embodiment is basically configured as follows. The first detection means 1 detects the name of a person who appears in the captured image. The second detection means 2 detects the name of an object different from the person who appears in the captured image. The 3rd detection means 3 detects the name of the spot by which imaging | photography was performed. The creating unit 4 selects either the person memo representing the name detected by the first detecting unit 1 or the object memo representing the name detected by the second detecting unit 2 and the name detected by the third detecting unit 3. A shooting memo in which a spot memo to be expressed is described is created. The first designation means 5 designates the particles to be added to the spot memo in the photographing memo created by the creation means 4 in different ways depending on the description mode of the person memo and the object memo. The second designation means 6 designates the particle to be added to the person memo in the photographing memo created by the creation means 4 in a different manner depending on the number of names appearing in the person memo.

撮影メモには、スポットメモが記述され、かつ人物メモまたは物体メモが記述される。ここで、スポットメモに付される助詞は、人物メモおよび物体メモの記述態様に応じて異なる。また、人物メモが撮影メモに記述される場合、人物メモに付される助詞は人物メモに表れる名称の数に応じて異なる。これによって、撮影メモの体裁を整える性能が向上する。
[実施例]
In the shooting memo, a spot memo is described, and a person memo or an object memo is described. Here, the particle attached to the spot memo differs depending on the description mode of the person memo and the object memo. In addition, when a person memo is described in a shooting memo, the particle attached to the person memo varies depending on the number of names appearing in the person memo. This improves the performance of adjusting the appearance of the shooting memo.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た光学像は、イメージャ16の撮像面に照射され、光電変換を施される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image that has passed through these members is irradiated onto the imaging surface of the imager 16 and subjected to photoelectric conversion.

カメラモードが選択されると、CPU30は、動画取り込み処理を実行するべく、ドライバ18cに露光動作および電荷読み出し動作の繰り返しを命令する。ドライバ18cは、周期的に発生する垂直同期信号Vsyncに応答して、イメージャ16の撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく生画像データが周期的に出力される。   When the camera mode is selected, the CPU 30 instructs the driver 18c to repeat the exposure operation and the charge reading operation in order to execute the moving image capturing process. The driver 18c exposes the imaging surface of the imager 16 in response to a periodically generated vertical synchronization signal Vsync, and reads out the charges generated on the imaging surface in a raster scanning manner. From the imager 16, raw image data based on the read charges is periodically output.

信号処理回路20は、イメージャ16から出力された生画像データに白バランス調整,色分離,YUV変換などの処理を施す。これによって生成されたYUV形式の画像データ(以下では、「撮影画像データ」という)は、メモリ制御回路22を通してSDRAM24のYUV画像エリア24aに書き込まれる。LCDドライバ26は、YUV画像エリア24aに格納された撮影画像データをメモリ制御回路22を通して繰り返し読み出し、読み出された撮影画像データに基づいてLCDモニタ28を駆動する。この結果、撮像面で捉えられたシーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The signal processing circuit 20 performs processing such as white balance adjustment, color separation, and YUV conversion on the raw image data output from the imager 16. The image data in the YUV format (hereinafter referred to as “photographed image data”) generated thereby is written into the YUV image area 24 a of the SDRAM 24 through the memory control circuit 22. The LCD driver 26 repeatedly reads the captured image data stored in the YUV image area 24a through the memory control circuit 22, and drives the LCD monitor 28 based on the read captured image data. As a result, a real-time moving image (through image) representing the scene captured on the imaging surface is displayed on the monitor screen.

CPU30は、既定条件を満足する部分画像を撮影画像データから探索する探索処理を、上述の動画取り込み処理と並列して繰り返し実行する。ここで、“既定条件を満足する部分画像”とは、人物辞書DIC1に収められた1または2以上の人物画像および物体辞書DIC2に収められた1または2以上の物体画像(物体画像:人物と異なる物体を表す画像)のいずれか1つと符合する部分画像に相当する。   The CPU 30 repeatedly executes a search process for searching for a partial image satisfying the predetermined condition from the captured image data in parallel with the above-described moving image capturing process. Here, the “partial image satisfying the predetermined condition” means one or more person images stored in the person dictionary DIC1 and one or more object images (object image: person and person stored in the object dictionary DIC2). This corresponds to a partial image that coincides with any one of images representing different objects.

人物辞書DIC1および物体辞書DIC2はいずれも、フラッシュメモリ46に保存される。また、人物辞書DIC1は図3(A)に示す要領で構成され、物体辞書DIC2は図3(B)に示す要領で構成される。図3(A)によれば、3人の人物の顔を表す画像の特徴量が人物辞書DIC1に収められる。この3つの特徴量には、識別番号“1”,“2”および“3”と人物名“アキコ”,“ヒロシ”および“ミユキ”が割り当てられる。また、図3(B)によれば、3つの物体を表す画像の特徴量が物体辞書DIC2に収められる。この3つの特徴量には、識別番号“1”,“2”および“3”と物体名“ケーキ”,“オレンジ”および“ティーカップ”が割り当てられる。   Both the person dictionary DIC1 and the object dictionary DIC2 are stored in the flash memory 46. The person dictionary DIC1 is configured as shown in FIG. 3A, and the object dictionary DIC2 is configured as shown in FIG. According to FIG. 3A, image feature amounts representing the faces of three persons are stored in the person dictionary DIC1. Identification numbers “1”, “2” and “3” and person names “Akiko”, “Hiroshi” and “Miyuki” are assigned to these three feature amounts. Further, according to FIG. 3B, the feature quantities of the images representing the three objects are stored in the object dictionary DIC2. Identification numbers “1”, “2”, and “3” and object names “cake”, “orange”, and “tea cup” are assigned to these three feature amounts.

探索処理ではまず、人物辞書DIC1が参照辞書として指定され、図4に示す人物レジスタRGST1が登録先レジスタとして指定され、そして変数Kが“1”〜“Kmax”(Kmax:参照辞書に収められた辞書画像の総数)の各々に順に設定される。変数Kが“3”に達すると、参照辞書および登録先辞書が物体辞書DIC2および図4に示す物体レジスタRGST2に変更され、変数Kが再度“1”〜“Kmax”の各々に順次設定される。   In the search process, first, the person dictionary DIC1 is designated as the reference dictionary, the person register RGST1 shown in FIG. 4 is designated as the registration destination register, and the variable K is stored in the reference dictionary from “1” to “Kmax” (Kmax: The total number of dictionary images) is set in order. When the variable K reaches “3”, the reference dictionary and the registration destination dictionary are changed to the object dictionary DIC2 and the object register RGST2 shown in FIG. 4, and the variable K is sequentially set to each of “1” to “Kmax” again. .

YUV画像エリア24aに格納された撮影画像データからは、参照辞書に収められたK番目の辞書画像に符合する部分画像が探索される。参照画像が人物辞書DIC1であれば、K番目の人物画像に符合する部分画像が探索される。また、参照画像が物体辞書DIC2であれば、K番目の物体画像に符合する部分画像が探索される。   From the photographed image data stored in the YUV image area 24a, a partial image that matches the Kth dictionary image stored in the reference dictionary is searched. If the reference image is the person dictionary DIC1, a partial image that matches the Kth person image is searched. If the reference image is the object dictionary DIC2, a partial image that matches the Kth object image is searched.

所望の部分画像が探知されると、探知された部分画像の位置およびサイズが登録先レジスタに登録される。また、探知された部分画像の名称が参照辞書から読み出され、読み出された名称が登録先レジスタに登録される。   When a desired partial image is detected, the position and size of the detected partial image are registered in the registration destination register. Further, the name of the detected partial image is read from the reference dictionary, and the read name is registered in the registration destination register.

こうして既定条件を満足する1または2以上の部分画像が探知されると、CPU30は、探知された1または2以上の部分画像を覆う一部のエリアを評価エリアとして設定する。CPU30はさらに、探知された1または2以上の部分画像をそれぞれ指向する1または2以上の検出枠キャラクタの表示をキャラクタジェネレータ32に命令する。   When one or more partial images satisfying the predetermined condition are detected in this way, the CPU 30 sets a partial area covering the detected one or two or more partial images as an evaluation area. The CPU 30 further instructs the character generator 32 to display one or more detection frame characters that respectively point to the detected one or more partial images.

キャラクタジェネレータ32は、命令に従うキャラクタデータを作成し、作成したキャラクタデータをLCDドライバ26に与える。LCDドライバ26は、与えられたキャラクタデータに基づいてLCDモニタ28を駆動する。検出枠キャラクタは、指定された部分画像のサイズに相当するサイズを有して、指定された部分画像を囲う位置に表示される。   The character generator 32 creates character data according to the command, and gives the created character data to the LCD driver 26. The LCD driver 26 drives the LCD monitor 28 based on the given character data. The detection frame character has a size corresponding to the size of the designated partial image, and is displayed at a position surrounding the designated partial image.

一方、既定条件を満足する部分画像が1つも探知されなければ、CPU30は、撮像面の中央の既定エリアを評価エリアとして設定し、検出枠キャラクタの非表示をキャラクタジェネレータ32に命令する。キャラクタジェネレータ32はキャラクタデータの出力を中断し、これによって検出枠キャラクタが消失する。   On the other hand, if no partial image satisfying the predetermined condition is detected, the CPU 30 sets the predetermined area at the center of the imaging surface as the evaluation area and instructs the character generator 32 to hide the detection frame character. The character generator 32 interrupts the output of the character data, whereby the detection frame character disappears.

したがって、図5(A)に示すシーンが捉えられたときは、“ヒロシ”の顔画像を囲うように検出枠キャラクタDT1が表示される。また、人物レジスタRGST1の1番目のカラムには、検出枠キャラクタDT1の位置およびサイズと人物名“ヒロシ”とが登録される。   Therefore, when the scene shown in FIG. 5A is captured, the detection frame character DT1 is displayed so as to surround the face image of “Hiroshi”. In the first column of the person register RGST1, the position and size of the detection frame character DT1 and the person name “Hiroshi” are registered.

図5(B)に示すシーンが捉えられたときは、“アキコ”の顔画像を囲うように検出枠キャラクタDT1が表示され、“ヒロシ”の顔画像を囲うように検出枠キャラクタDT2が表示される。人物レジスタRGST1の1番目のカラムには、検出枠キャラクタDT1の位置およびサイズと人物名“アキコ”とが登録される。また、人物レジスタRGST1の2番目のカラムには、検出枠キャラクタDT2の位置およびサイズと人物名“ヒロシ”とが登録される。   When the scene shown in FIG. 5B is captured, the detection frame character DT1 is displayed so as to surround the face image of “Akiko”, and the detection frame character DT2 is displayed so as to surround the face image of “Hiroshi”. The In the first column of the person register RGST1, the position and size of the detection frame character DT1 and the person name “Akiko” are registered. Further, in the second column of the person register RGST1, the position and size of the detection frame character DT2 and the person name “Hiroshi” are registered.

図6(A)に示すシーンが捉えられたときは、“ヒロシ”の顔画像を囲うように検出枠キャラクタDT1が表示され、“ミユキ”の顔画像を囲うように検出枠キャラクタDT2が表示される。人物レジスタRGST1の1番目のカラムには、検出枠キャラクタDT1の位置およびサイズと人物名“ヒロシ”とが登録される。また、人物レジスタRGST1の2番目のカラムには、検出枠キャラクタDT2の位置およびサイズと人物名“ミユキ”とが登録される。   When the scene shown in FIG. 6A is captured, the detection frame character DT1 is displayed so as to surround the face image of “Hiroshi”, and the detection frame character DT2 is displayed so as to surround the face image of “Miyuki”. The In the first column of the person register RGST1, the position and size of the detection frame character DT1 and the person name “Hiroshi” are registered. Further, the position and size of the detection frame character DT2 and the person name “Miyuki” are registered in the second column of the person register RGST1.

図6(B)に示すシーンが捉えられたときは、“アキコ”の顔画像を囲うように検出枠キャラクタDT1が表示され、“ヒロシ”の顔画像を囲うように検出枠キャラクタDT2が表示され、そして“ミユキ”の顔画像を囲うように検出枠キャラクタDT3が表示される。   When the scene shown in FIG. 6B is captured, the detection frame character DT1 is displayed so as to surround the face image of “Akiko”, and the detection frame character DT2 is displayed so as to surround the face image of “Hiroshi”. Then, the detection frame character DT3 is displayed so as to surround the face image of “Miyuki”.

人物レジスタRGST1の1番目のカラムには、検出枠キャラクタDT1の位置およびサイズと人物名“アキコ”とが登録される。また、人物レジスタRGST1の2番目のカラムには、検出枠キャラクタDT2の位置およびサイズと人物名“ヒロシ”とが登録される。さらに、人物レジスタRGST1の3番目のカラムには、検出枠キャラクタDT3の位置およびサイズと人物名“ミユキ”とが登録される。   In the first column of the person register RGST1, the position and size of the detection frame character DT1 and the person name “Akiko” are registered. Further, in the second column of the person register RGST1, the position and size of the detection frame character DT2 and the person name “Hiroshi” are registered. Furthermore, the position and size of the detection frame character DT3 and the person name “Miyuki” are registered in the third column of the person register RGST1.

図7(A)に示すシーンが捉えられたときは、ケーキを表す画像を囲うように検出枠キャラクタDT1が表示される。物体レジスタRGST2の1番目のカラムには、検出枠キャラクタDT1の位置およびサイズと物体名“ケーキ”とが登録される。   When the scene shown in FIG. 7A is captured, the detection frame character DT1 is displayed so as to surround the image representing the cake. In the first column of the object register RGST2, the position and size of the detection frame character DT1 and the object name “cake” are registered.

図7(B)に示すシーンが捉えられたときは、“アキコ”の顔画像を囲うように検出枠キャラクタDT1が表示され、ケーキを表す画像を囲うように検出枠キャラクタDT2が表示され、そしてティーカップを表す画像を囲うように検出枠キャラクタDT3が表示される。   When the scene shown in FIG. 7B is captured, the detection frame character DT1 is displayed so as to surround the face image of “Akiko”, the detection frame character DT2 is displayed so as to surround the image representing the cake, and A detection frame character DT3 is displayed so as to surround the image representing the tea cup.

人物レジスタRGST1の1番目のカラムには、検出枠キャラクタDT1の位置およびサイズと人物名“アキコ”とが登録される。また、物体レジスタRGST2の1番目のカラムには、検出枠キャラクタDT2の位置およびサイズと物体名“ケーキ”とが登録される。さらに、物体レジスタRGST2の2番目のカラムには、検出枠キャラクタDT3の位置およびサイズと物体名“ティーカップ”とが登録される。   In the first column of the person register RGST1, the position and size of the detection frame character DT1 and the person name “Akiko” are registered. In the first column of the object register RGST2, the position and size of the detection frame character DT2 and the object name “cake” are registered. Further, the position and size of the detection frame character DT3 and the object name “tea cup” are registered in the second column of the object register RGST2.

図2に戻って、信号処理回路20によって作成された撮影画像データを形成するYデータは、CPU30にも与えられる。CPU30は、与えられたYデータのうち上述の要領で設定された評価エリアに属する一部のYデータにAE処理を施して適正EV値を算出し、算出された適正EV値を定義する絞り量および露光時間をドライバ18bおよび18cにそれぞれ設定する。これによって、評価エリアに属する画像の明るさが適正値を示すようにスルー画像の品質が調整される。   Returning to FIG. 2, the Y data forming the captured image data created by the signal processing circuit 20 is also given to the CPU 30. The CPU 30 calculates an appropriate EV value by performing AE processing on a part of the Y data belonging to the evaluation area set in the above-described manner among the given Y data, and an aperture amount that defines the calculated appropriate EV value And the exposure time are set in the drivers 18b and 18c, respectively. Thus, the quality of the through image is adjusted so that the brightness of the image belonging to the evaluation area shows an appropriate value.

キー入力装置40に設けられたシャッタボタン40shが半押しされると、CPU30は、評価エリアに属するYデータに厳格AE処理を施して最適EV値を算出する。算出された最適EV値を定義する絞り量および露光時間は、上述と同様、ドライバ18bおよび18cにそれぞれ設定される。この結果、評価エリアに属する画像の明るさが最適値をしめすようにスルー画像の品質が調整される。   When the shutter button 40sh provided in the key input device 40 is half-pressed, the CPU 30 performs a strict AE process on the Y data belonging to the evaluation area and calculates an optimum EV value. The aperture amount and the exposure time that define the calculated optimal EV value are set in the drivers 18b and 18c, respectively, as described above. As a result, the quality of the through image is adjusted so that the brightness of the image belonging to the evaluation area shows the optimum value.

CPU30はまた、評価エリアに属するYデータの高周波成分にAF処理を施す。これによってフォーカスレンズ12が合焦点に配置され、評価エリアに属する画像の鮮鋭度が向上するようにスルー画像の品質が調整される。   The CPU 30 also performs AF processing on the high frequency components of the Y data belonging to the evaluation area. As a result, the focus lens 12 is arranged at the focal point, and the quality of the through image is adjusted so that the sharpness of the image belonging to the evaluation area is improved.

シャッタボタン40shが全押しされると、CPU30は、静止画取り込み処理を実行する。シャッタボタン40shが全押しされた時点のシーンを表す撮影画像データは、静止画取り込み処理によってYUV画像エリア24aから静止画像エリア24bに退避される。   When the shutter button 40sh is fully pressed, the CPU 30 executes a still image capturing process. The captured image data representing the scene at the time when the shutter button 40sh is fully pressed is saved from the YUV image area 24a to the still image area 24b by the still image capturing process.

退避が完了すると、CPU30は、時計回路44が示す現在の日時,GPS装置42によって測定された現在の位置,人物レジスタDIC1に登録された人物名,および物体レジスタDIC2に登録された物体名が記述されたファイルヘッダを作成する。作成されたファイルヘッダは、メモリ制御回路22を通してSDRAM24のワークエリア24cに書き込まれる。   When the saving is completed, the CPU 30 describes the current date and time indicated by the clock circuit 44, the current position measured by the GPS device 42, the person name registered in the person register DIC1, and the object name registered in the object register DIC2. Create the specified file header. The created file header is written into the work area 24 c of the SDRAM 24 through the memory control circuit 22.

CPU30はその後、静止画像エリア24bに退避された撮影画像データとワークエリア24cに格納されたファイルヘッダとを記録するべく、対応する命令をメモリI/F36に与える。メモリI/F36は、ワークエリア24cに格納されたファイルヘッダおよび静止画像エリア24bに格納された撮影画像データをメモリ制御回路22を通して読み出し、読み出されたファイルヘッダおよび撮影画像データを収めた画像ファイルを記録媒体38に記録する。   Thereafter, the CPU 30 gives a corresponding command to the memory I / F 36 to record the captured image data saved in the still image area 24b and the file header stored in the work area 24c. The memory I / F 36 reads out the file header stored in the work area 24c and the captured image data stored in the still image area 24b through the memory control circuit 22 and stores the read file header and captured image data. Is recorded on the recording medium 38.

アルバムメモ設定はメニュー操作によってオン/オフされ、アルバムメモ設定がオン状態であればアルバムメモ作成処理が以下の要領で実行される。   The album memo setting is turned on / off by a menu operation. If the album memo setting is on, the album memo creation process is executed as follows.

まず、アルバムメモの作成対象となる画像ファイルに収められたファイルヘッダが、メモリI/F36を通して記録媒体38から取得される。次に、上述の要領で記述された位置がファイルヘッダから検出され、検出された位置の名称つまり撮影スポット名がフラッシュメモリ46に保存された地図データMP1を参照して探索される。これによって探知された撮影スポット名は、撮影スポットメモとしてアルバムメモ上に記述される。   First, a file header stored in an image file for which an album memo is to be created is acquired from the recording medium 38 through the memory I / F 36. Next, the position described in the above-described manner is detected from the file header, and the name of the detected position, that is, the photographing spot name is searched with reference to the map data MP1 stored in the flash memory 46. The shooting spot name detected in this way is described on the album memo as a shooting spot memo.

続いて、人物名および物体名が同じファイルヘッダから探索される。物体名および人物名のうち物体名のみが検出されたときは、撮影スポットメモに続く助詞が“の”に決定される。また、物体名に加えて人物名が検出されたものの、検出された人物名がカメラ所有者の名称のみであれば、撮影スポットメモに続く助詞は“の”に決定される。これに対して、物体名に加えてカメラ所有者の名称以外の人物名が検出されたときは、撮影スポットメモに続く助詞が“にて”に決定される。また、物体名および人物名のいずれも検出されなければ、撮影スポットメモに続く助詞は“にて”に決定される。   Subsequently, the person name and the object name are searched from the same file header. When only the object name is detected among the object name and the person name, the particle following the shooting spot memo is determined to be “no”. If the person name is detected in addition to the object name, but the detected person name is only the name of the camera owner, the particle following the shooting spot memo is determined to be “no”. On the other hand, when a person name other than the name of the camera owner is detected in addition to the object name, the particle following the shooting spot memo is determined as “de”. If neither an object name nor a person name is detected, the particle following the shooting spot memo is determined as “de”.

なお、カメラ所有者情報は、フラッシュメモリ46に予め記憶されている。注目する人物名がカメラ所有者の名称であるか否かは、フラッシュメモリ46に記憶されたカメラ所有者情報に基づいて判別される。   The camera owner information is stored in advance in the flash memory 46. Whether or not the name of the person of interest is the name of the camera owner is determined based on the camera owner information stored in the flash memory 46.

カメラ所有者の名称を除く1または2以上の人物名が検出されたときは、検出された人物名が人物メモとしてアルバムメモ上に記述される。また、記述された人物名の数が1つであれば、人物メモに続く助詞は“と”に決定される。これに対して、記述された人物名の数が“2”以上であれば、人物メモに続く助詞は“たちと”に決定される。   When one or more person names excluding the camera owner name are detected, the detected person names are described on the album memo as a person memo. If the number of described person names is one, the particle following the person memo is determined as “to”. On the other hand, if the number of described person names is “2” or more, the particle following the person memo is determined as “tadato”.

カメラ所有者の名称を除く人物名は検出されないものの、1または2以上の物体名が検出されたときは、検出された物体名のいずれか1つが物体メモとしてアルバムメモ上に記述される。このとき、記述された物体メモに続く助詞は省略される。   Although no person names other than the camera owner name are detected, when one or more object names are detected, one of the detected object names is described on the album memo as an object memo. At this time, the particles following the described object memo are omitted.

こうして撮影スポットメモおよび人物メモ/物体メモが作成され、かつこれらのメモに付すべき助詞が決定されると、CPU30は、ファイルヘッダに記述された日時をさらに記述してアルバムメモを完成する。完成したアルバムメモは、同じファイルヘッダに追記される。   When the shooting spot memo and the person memo / object memo are thus created and the particles to be attached to these memos are determined, the CPU 30 further describes the date and time described in the file header to complete the album memo. The completed album memo is added to the same file header.

したがって、図5(A)または図5(B)に示すシーンを表す撮像画像データを収めた画像ファイルに対してアルバムメモ作成処理が実行された場合、アルバムメモはたとえば“2011年3月5日 XXX寺院にて ヒロシと。”となる。また、図6(A)または図6(B)に示すシーンを表す撮像画像データを収めた画像ファイルに対してアルバムメモ作成処理が実行された場合、アルバムメモはたとえば“2011年4月13日 遊園地YYYにて ヒロシ、ミユキたちと。”となる。さらに、図7(A)または図7(B)に示すシーンを表す撮像画像データを収めた画像ファイルに対してアルバムメモ作成処理が実行された場合、アルバムメモはたとえば“2011年5月25日 洋菓子店ZZZのケーキ。”となる。   Therefore, when album memo creation processing is executed for an image file containing captured image data representing the scene shown in FIG. 5A or FIG. 5B, the album memo is “March 5, 2011,” for example. "At Hiroshi XXX," When album memo creation processing is executed for an image file containing captured image data representing the scene shown in FIG. 6A or 6B, the album memo is “April 13, 2011”, for example. At the amusement park YYY, with Hiroshi and Miyuki. " Further, when the album memo creation process is executed on the image file containing the captured image data representing the scene shown in FIG. 7A or 7B, the album memo is “May 25, 2011”, for example. "The cake of a pastry shop ZZZ."

再生モードが選択されると、CPU30は、記録媒体38に記録された最新の画像ファイルを指定し、指定された画像ファイルに注目した再生処理の実行をメモリI/F36およびLCDドライバ26に命令する。メモリI/F36は、指定された画像ファイルの撮影画像データを記録媒体38から読み出し、読み出された撮影画像データをメモリ制御回路22を通してSDRAM24の静止画像エリア24bに書き込む。   When the reproduction mode is selected, the CPU 30 designates the latest image file recorded on the recording medium 38 and instructs the memory I / F 36 and the LCD driver 26 to execute the reproduction process focusing on the designated image file. . The memory I / F 36 reads the captured image data of the designated image file from the recording medium 38 and writes the read captured image data to the still image area 24 b of the SDRAM 24 through the memory control circuit 22.

LCDドライバ26は、静止画像エリア24bに格納された撮影画像データをメモリ制御回路22を通して読み出し、読み出された撮影画像データに基づいてLCDモニタ28を駆動する。この結果、撮影画像がLCDモニタ28に表示される。   The LCD driver 26 reads the captured image data stored in the still image area 24b through the memory control circuit 22, and drives the LCD monitor 28 based on the read captured image data. As a result, the captured image is displayed on the LCD monitor 28.

アルバムメモが指定画像ファイルのヘッダに記述されていれば、CPU30は、ファイルヘッダに記述されたアルバムメモをメモリI/F36を通して読み出し、読み出されたアルバムメモの表示をキャラクタジェネレータ32に命令する。   If the album memo is described in the header of the designated image file, the CPU 30 reads the album memo described in the file header through the memory I / F 36 and instructs the character generator 32 to display the read album memo.

キャラクタジェネレータ32は、命令に従うキャラクタデータを作成し、作成されたキャラクタデータをLCDドライバ26に与える。LCDドライバ26は、与えられたキャラクタデータに基づいてLCDモニタ28を駆動する。この結果、アルバムメモがOSD態様でLCDモニタ28に表示される。   The character generator 32 creates character data according to the command, and gives the created character data to the LCD driver 26. The LCD driver 26 drives the LCD monitor 28 based on the given character data. As a result, the album memo is displayed on the LCD monitor 28 in an OSD manner.

キー入力装置40の送り/戻しボタン40frが操作されると、CPU30は、後続の画像ファイルまたは先行する画像ファイルを指定する。指定された画像ファイルは上述と同様の再生処理を施され、これによってLCDモニタ28の表示が更新される。上述の要領で作成された撮影画像データおよびアルバムメモは、図8(A),図8(B),図9(A),図9(B),図10(A)および図10(B)に示す要領で再生される。   When the feed / return button 40fr of the key input device 40 is operated, the CPU 30 designates a subsequent image file or a preceding image file. The designated image file is subjected to a reproduction process similar to that described above, whereby the display on the LCD monitor 28 is updated. The photographed image data and album memo created in the manner described above are shown in FIGS. 8 (A), 8 (B), 9 (A), 9 (B), 10 (A), and 10 (B). It is played back as shown in.

アルバムメモが記述されていない画像ファイルが再生されている状態でキー入力装置40のアルバムメモボタン40albmが押されると、上述したアルバムメモ作成処理が実行される。これに対して、アルバムメモが記述された画像ファイルが再生されている状態でアルバムメモボタン40albmが押されると、アルバムメモ編集処理が以下の要領で実行される。   When the album memo button 40albm of the key input device 40 is pressed while an image file in which no album memo is described is being reproduced, the above-described album memo creation process is executed. On the other hand, when the album memo button 40albm is pressed while the image file describing the album memo is being played, the album memo editing process is executed as follows.

CPU30はまず、キーボードを表すキャラクタを表示するべく、対応する命令をキャラクタジェネレータ32に与える。キャラクタジェネレータ32は、命令に従うキャラクタデータを作成し、作成したキャラクタデータをLCDドライバ26に与える。LCDドライバ26は、与えられたキャラクタデータに基づいてLCDモニタ28を駆動する。この結果、キーボードを表すキャラクタがOSD態様でLCDモニタ28に表示される。   First, the CPU 30 gives a corresponding command to the character generator 32 to display a character representing the keyboard. The character generator 32 creates character data according to the command, and gives the created character data to the LCD driver 26. The LCD driver 26 drives the LCD monitor 28 based on the given character data. As a result, a character representing the keyboard is displayed on the LCD monitor 28 in an OSD manner.

表示されたキーボード上での編集操作および/または終了操作は、タッチセンサ34によって検知される。編集操作が行われると、CPU30は、LCDモニタ28に表示されたアルバムメモを編集する。アルバムメモの編集の後に終了操作が行われると、CPU30は、指定画像ファイルのヘッダに記述されたアルバムメモを編集後のアルバムメモによって更新する。   The edit operation and / or end operation on the displayed keyboard is detected by the touch sensor 34. When the editing operation is performed, the CPU 30 edits the album memo displayed on the LCD monitor 28. When the end operation is performed after editing the album memo, the CPU 30 updates the album memo described in the header of the designated image file with the edited album memo.

編集対象がアルバムメモ上の撮像スポット名であれば、フラッシュメモリ46に保存された地図データ上の対応するスポット名が変更後の撮影スポット名と同じ名称に更新される。編集対象がアルバムメモ上の人物名であれば、人物辞書DIC1に収められた対応する人物の名称が変更後の人物名と同じ名称に変更される。編集対象がアルバムメモ上の物体名であれば、物体辞書DIC2に収められた対応する物体の名称が変更後の物体名と同じ名称に変更される。   If the object to be edited is the imaging spot name on the album memo, the corresponding spot name on the map data stored in the flash memory 46 is updated to the same name as the changed shooting spot name. If the editing target is a person name on the album memo, the name of the corresponding person stored in the person dictionary DIC1 is changed to the same name as the changed person name. If the object to be edited is the object name on the album memo, the name of the corresponding object stored in the object dictionary DIC2 is changed to the same name as the changed object name.

CPU30はその後、キーボードを表すキャラクタの非表示をキャラクタジェネレータ32に命令する。キャラクタジェネレータ32はキャラクタデータの出力を中断し、これによってキーボードを表すキャラクタが消失する。   Thereafter, the CPU 30 instructs the character generator 32 to hide the character representing the keyboard. The character generator 32 interrupts the output of the character data, whereby the character representing the keyboard disappears.

CPU30は、カメラモードが選択されたときに図11〜図12に示す撮像タスクを実行し、再生モードが選択されたときに図19に示す再生タスクを実行する。CPU30はまた、撮像タスクの下で図13〜図14に示す探索処理および図15〜図18に示すアルバムメモ作成処理を実行し、再生タスクの下で図15〜図18に示すアルバムメモ作成処理および図20〜図21に示すアルバムメモ編集処理を実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ46に記憶される。   The CPU 30 executes the imaging task shown in FIGS. 11 to 12 when the camera mode is selected, and executes the reproduction task shown in FIG. 19 when the reproduction mode is selected. The CPU 30 also executes search processing shown in FIGS. 13 to 14 and album memo creation processing shown in FIGS. 15 to 18 under the imaging task, and album memo creation processing shown in FIGS. 15 to 18 under the reproduction task. The album memo editing process shown in FIGS. 20 to 21 is executed. Note that control programs corresponding to these tasks are stored in the flash memory 46.

図11を参照して、ステップS1では動画取り込み処理を実行し、ステップS3では探索処理を実行する。動画取り込み処理の結果、スルー画像がLCDモニタ30に表示される。また、探索処理の結果、人物辞書DIC1に収められた複数の人物画像のいずれか1つに符合する部分画像が探索され、物体辞書DIC2に収められた複数の物体画像のいずれか1つに符合する部分画像が探索される。   Referring to FIG. 11, a moving image capturing process is executed in step S1, and a search process is executed in step S3. As a result of the moving image capturing process, a through image is displayed on the LCD monitor 30. Further, as a result of the search process, a partial image that matches any one of the plurality of person images stored in the person dictionary DIC1 is searched, and matches any one of the plurality of object images stored in the object dictionary DIC2. The partial image to be searched is searched.

人物辞書DIC1を参照して探知された部分画像については、この部分画像の位置およびサイズと符合人物画像の名称とが人物レジスタRGST1に登録される。また、物体辞書DIC2を参照して探知された部分画像については、この部分画像の位置およびサイズと符合物体画像の名称とが物体レジスタRGST2に登録される。このような登録処理が実行されると、探知を表明するべくFLGhtが“0”から“1”に更新される。   For the partial image detected with reference to the person dictionary DIC1, the position and size of the partial image and the name of the sign person image are registered in the person register RGST1. For the partial image detected with reference to the object dictionary DIC2, the position and size of the partial image and the name of the code object image are registered in the object register RGST2. When such a registration process is executed, FLGht is updated from “0” to “1” to announce the detection.

ステップS5ではフラグFLGhtが“1”を示すか否かを判別し、判別結果がYESであればステップS7〜S9の処理を経てステップS15に進む一方、判別結果がNOであればステップS11〜S13の処理を経てステップS15に進む。   In step S5, it is determined whether or not the flag FLGht indicates “1”. If the determination result is YES, the process proceeds to step S15 through steps S7 to S9. If the determination result is NO, steps S11 to S13 are performed. Then, the process proceeds to step S15.

ステップS7では、探知された1または2以上の部分画像を覆う一部のエリアを評価エリアとして設定する。ステップS9では、ステップS7で探知された1または2以上の部分画像をそれぞれ指向する1または2以上の検出枠キャラクタの表示をキャラクタジェネレータ32に命令する。   In step S7, a partial area covering one or more detected partial images is set as an evaluation area. In step S9, the character generator 32 is instructed to display one or more detection frame characters that respectively point to the one or more partial images detected in step S7.

キャラクタジェネレータ32は、命令に従うキャラクタデータを作成し、作成したキャラクタデータをLCDドライバ26に与える。LCDドライバ26は、与えられたキャラクタデータに基づいてLCDモニタ28を駆動する。検出枠キャラクタは、指定された部分画像のサイズに相当するサイズを有して、指定された部分画像を囲う位置に表示される。   The character generator 32 creates character data according to the command, and gives the created character data to the LCD driver 26. The LCD driver 26 drives the LCD monitor 28 based on the given character data. The detection frame character has a size corresponding to the size of the designated partial image, and is displayed at a position surrounding the designated partial image.

ステップS11では撮像面の中央の既定エリアを評価エリアとして設定し、ステップS13では検出枠キャラクタの非表示をキャラクタジェネレータ32に命令する。キャラクタジェネレータ32はキャラクタデータの出力を中断し、これによって検出枠キャラクタが消失する。   In step S11, a predetermined area at the center of the imaging surface is set as an evaluation area, and in step S13, the character generator 32 is commanded to hide the detection frame character. The character generator 32 interrupts the output of the character data, whereby the detection frame character disappears.

ステップS15ではシャッタボタン40shが半押しされたか否かを判別し、判別結果がNOであればステップS19で簡易AE処理を実行する。簡易AE処理は評価エリアに属するYデータを参照して実行され、これによって評価エリアに属する画像の明るさが適正値を示すようにスルー画像の品質が調整される。ステップS19の処理が完了すると、ステップS3に戻る。   In step S15, it is determined whether or not the shutter button 40sh is half-pressed. If the determination result is NO, a simple AE process is executed in step S19. The simple AE process is executed with reference to the Y data belonging to the evaluation area, whereby the quality of the through image is adjusted so that the brightness of the image belonging to the evaluation area shows an appropriate value. When the process of step S19 is completed, the process returns to step S3.

シャッタボタン40shが半押しされると、ステップS17で厳格AE処理を実行し、ステップS19でAF処理を実行する。厳格AE処理およびAF処理もまた、評価エリアに属するYデータおよびその高周波成分に基づいて実行され、これによって評価エリアに属する画像の明るさおよび鮮鋭度が最適値を示すようにスルー画像の品質が調整される。   When the shutter button 40sh is half-pressed, strict AE processing is executed in step S17, and AF processing is executed in step S19. Strict AE processing and AF processing are also performed based on the Y data belonging to the evaluation area and its high-frequency components, thereby reducing the quality of the through image so that the brightness and sharpness of the image belonging to the evaluation area show optimum values. Adjusted.

ステップS23ではシャッタボタン40shが全押しされたか否かを判別し、ステップS25ではシャッタボタン40shの操作が解除されたか否かを判別する。ステップS25の判別結果がYESであればステップS3に戻り、ステップS23の判別結果がYESであればステップS27で静止画取り込み処理を実行する。ステップS27の処理の結果、シャッタボタン40shが全押しされた時点のシーンを表す撮影画像データがYUV画像エリア24aから静止画像エリア24bに退避される。   In step S23, it is determined whether or not the shutter button 40sh has been fully pressed. In step S25, it is determined whether or not the operation of the shutter button 40sh has been released. If the determination result of step S25 is YES, it will return to step S3, and if the determination result of step S23 is YES, a still image taking process will be performed in step S27. As a result of the process in step S27, the captured image data representing the scene at the time when the shutter button 40sh is fully pressed is saved from the YUV image area 24a to the still image area 24b.

ステップS29では、時計回路44が示す現在の日時,GPS装置42によって測定された現在の位置,人物レジスタDIC1に登録された人物名,および物体レジスタDIC2に登録された物体名が記述されたファイルヘッダを作成する。作成されたファイルヘッダは、メモリ制御回路22を通してSDRAM24のワークエリア24cに書き込まれる。   In step S29, a file header in which the current date and time indicated by the clock circuit 44, the current position measured by the GPS device 42, the person name registered in the person register DIC1, and the object name registered in the object register DIC2 are described. Create The created file header is written into the work area 24 c of the SDRAM 24 through the memory control circuit 22.

ステップS31では、ステップS27で退避された撮影画像データとステップS29で作成されたファイルヘッダとを記録するべく、メモリI/F36に対応する命令を与える。メモリI/F36は、ワークエリア24cに格納されたファイルヘッダおよび静止画像エリア24bに格納された撮影画像データをメモリ制御回路22を通して読み出し、読み出されたファイルヘッダおよび撮影画像データを収めた画像ファイルを記録媒体38に記録する。   In step S31, an instruction corresponding to the memory I / F 36 is given to record the captured image data saved in step S27 and the file header created in step S29. The memory I / F 36 reads out the file header stored in the work area 24c and the captured image data stored in the still image area 24b through the memory control circuit 22 and stores the read file header and captured image data. Is recorded on the recording medium 38.

ステップS33ではアルバムメモ設定がオン状態であるか否かを判別し、判別結果がNOであればそのままステップS3に戻る一方、判別結果がYESであればステップS35でアルバムメモ作成処理を実行してからステップS3に戻る。アルバムメモ作成処理はファイルヘッダに記述された日時,位置,人物名および物体名に基づいて実行され、これによって作成されたアルバムメモはファイルヘッダに追記される。   In step S33, it is determined whether or not the album memo setting is ON. If the determination result is NO, the process directly returns to step S3. If the determination result is YES, the album memo creation process is executed in step S35. To step S3. The album memo creation process is executed based on the date / time, position, person name, and object name described in the file header, and the album memo created thereby is added to the file header.

図11に示すステップS3の探索処理は、図13〜図14に示すサブルーチンに従って実行される。まずステップS41でフラグFLGhtを“0”に設定し、ステップS43で人物辞書DIC1を参照辞書として指定し、そしてステップS45で人物レジスタRGST1を登録先レジスタとして指定する。指定が完了すると、ステップS47で変数Kを“1”に設定する。   The search process in step S3 shown in FIG. 11 is executed according to a subroutine shown in FIGS. First, the flag FLGht is set to “0” in step S41, the person dictionary DIC1 is designated as a reference dictionary in step S43, and the person register RGST1 is designated as a registration destination register in step S45. When the designation is completed, the variable K is set to “1” in step S47.

ステップS49では、参照辞書に収められたK番目の辞書画像に符合する部分画像をYUV画像エリア24aに格納された撮影画像データから探索する。参照画像が人物辞書DIC1であれば、K番目の人物画像に符合する部分画像が探索される。また、参照画像が物体辞書DIC2であれば、K番目の物体画像に符合する部分画像が探索される。   In step S49, a partial image that matches the Kth dictionary image stored in the reference dictionary is searched from the captured image data stored in the YUV image area 24a. If the reference image is the person dictionary DIC1, a partial image that matches the Kth person image is searched. If the reference image is the object dictionary DIC2, a partial image that matches the Kth object image is searched.

ステップS51では所望の部分画像が探知されたか否かを判別し、判別結果がNOであればそのままステップS59に進む一方、判別結果がYESであればステップS53〜S57の処理を経てステップS59に進む。ステップS53ではフラグFLGhtを“1”に更新し、ステップS55では探知された部分画像の位置およびサイズを登録先レジスタに登録する。ステップS57では、探知された部分画像の名称を参照辞書から読み出し、読み出された名称を登録先レジスタに登録する。   In step S51, it is determined whether or not a desired partial image has been detected. If the determination result is NO, the process proceeds directly to step S59. If the determination result is YES, the process proceeds to step S59 through steps S53 to S57. . In step S53, the flag FLGht is updated to “1”, and in step S55, the position and size of the detected partial image are registered in the registration destination register. In step S57, the name of the detected partial image is read from the reference dictionary, and the read name is registered in the registration destination register.

ステップS59では、変数Kが最大値Kmax(=参照辞書に登録された辞書画像の総数)に達したか否かを判別する。判別結果がNOであれば、ステップS61で変数Kをインクリメントし、その後にステップS49に戻る。これに対して、判別結果がYESであれば、参照辞書が物体辞書DIC2であるか否かをステップS63で判別する。   In step S59, it is determined whether or not the variable K has reached the maximum value Kmax (= total number of dictionary images registered in the reference dictionary). If the determination result is NO, the variable K is incremented in step S61, and then the process returns to step S49. On the other hand, if a determination result is YES, it will be discriminate | determined by step S63 whether a reference dictionary is the object dictionary DIC2.

判別結果がNOであれば、ステップS65で参照辞書を物体辞書DIC2に変更し、ステップS67で登録先レジスタを物体レジスタRGST2に変更し、ステップS69で変数Kを“1”に戻し、その後にステップS49に戻る。一方、判別結果がYESであれば上階層のルーチンに復帰する。   If the determination result is NO, the reference dictionary is changed to the object dictionary DIC2 in step S65, the registration destination register is changed to the object register RGST2 in step S67, the variable K is returned to “1” in step S69, and then step Return to S49. On the other hand, if the determination result is YES, the process returns to the upper hierarchy routine.

図12に示すステップS35および図19に示すステップS167(後述)のアルバムメモ作成処理は、図15〜図18に示すサブルーチンに従って実行される。   Album memo creation processing in step S35 shown in FIG. 12 and step S167 (described later) shown in FIG. 19 is executed according to the subroutine shown in FIGS.

ステップS71ではアルバムメモの作成対象となる画像ファイルからファイルヘッダを取得し、ステップS73では取得されたファイルヘッダに位置が記述されているか否かを判別する。判別結果がNOであれば、ステップS81でフラグFLGsptを“0”に設定する。判別結果がYESであればステップS75に進み、ファイルヘッダに記述された位置の名称つまり撮影スポット名をフラッシュメモリ46に保存された地図データMP1を参照して探索する。ステップS77では撮影スポット名が探知されたか否かを判別し、判別結果がYESであればステップS79でフラグFLGsptを“1”に設定する一方、判別結果がNOであればステップS81でフラグFLGsptを“0”に設定する。   In step S71, a file header is acquired from the image file for which an album memo is to be created. In step S73, it is determined whether or not a position is described in the acquired file header. If the determination result is NO, the flag FLGspt is set to “0” in a step S81. If the determination result is YES, the process proceeds to step S75, and the name of the position described in the file header, that is, the shooting spot name is searched with reference to the map data MP1 stored in the flash memory 46. In step S77, it is determined whether or not a shooting spot name has been detected. If the determination result is YES, the flag FLGspt is set to “1” in step S79, while if the determination result is NO, the flag FLGspt is set in step S81. Set to “0”.

ステップS79またはS81の処理が完了すると、ステップS71で取得されたファイルヘッダに人物名が記述されているか否かをステップS83で判別する。判別結果がNOであれば、ステップS87でフラグFLGprsnを“0”に設定し、ステップS107に進む。判別結果がYESであれば、ステップS85でフラグFLGprsnを“1”に設定し、ステップS89に進む。   When the process in step S79 or S81 is completed, it is determined in step S83 whether or not a person name is described in the file header acquired in step S71. If the determination result is NO, the flag FLGprsn is set to “0” in step S87, and the process proceeds to step S107. If the determination result is YES, the flag FLGprsn is set to “1” in a step S85, and the process proceeds to a step S89.

ステップS89では、ファイルヘッダに記述された人物名がカメラ所有者の名称を含むか否かを、フラッシュメモリ46に登録されたカメラ所有者情報を参照して判別する。判別結果がYESであればステップS91でフラグFLGownerを“1”に設定する一方、判別結果がNOであればステップS93でフラグFLGownerを“0”に設定する。   In step S89, it is determined by referring to the camera owner information registered in the flash memory 46 whether the person name described in the file header includes the name of the camera owner. If the determination result is YES, the flag FLGowner is set to “1” in step S91, while if the determination result is NO, the flag FLGowner is set to “0” in step S93.

ステップS91またはS93の処理が完了すると、ファイルヘッダに記述された人物名がカメラ所有者以外の人物の名称を含むか否かを判別する。ここでも、フラッシュメモリ46に登録されたカメラ所有者情報が参照される。判別結果がYESであれば、ステップS97でフラグFLGotherを“1”に設定し、その後にステップS101に進む。一方、判別結果がNOであれば、ステップS99でフラグFLGotherを“0”に設定し、その後にステップS107に進む。   When the process of step S91 or S93 is completed, it is determined whether the person name described in the file header includes the name of a person other than the camera owner. Again, the camera owner information registered in the flash memory 46 is referred to. If the determination result is YES, a flag FLGother is set to “1” in a step S97, and then the process proceeds to a step S101. On the other hand, if the determination result is NO, the flag FLGother is set to “0” in step S99, and then the process proceeds to step S107.

ステップS101では、ファイルヘッダの記述された人物名のうちカメラ所有者以外の人物名の数が“2”以上であるか否かを判別する。判別結果がYESであればステップS103でフラグFLGplrを“1”に設定する一方、判別結果がNOであればステップS105でフラグFLGplrを“0”に設定する。ステップS103またはS105の処理が完了すると、ステップS107に進む。   In step S101, it is determined whether or not the number of person names other than the camera owner among the person names described in the file header is “2” or more. If the determination result is YES, the flag FLGplr is set to “1” in step S103, while if the determination result is NO, the flag FLGplr is set to “0” in step S105. When the process of step S103 or S105 is completed, the process proceeds to step S107.

ステップS107では、ステップS71で取得されたファイルヘッダに物体名が記述されているか否かを判別する。判別結果がNOであれば、ステップS113でフラグFLGobjを“0”に設定する。これに対して、判別結果がYESであれば、ステップS109でフラグFLGobjを“1”に設定し、ファイルヘッダに記述された1または2以上の物体名のいずれか1つをステップS111で指定する。   In step S107, it is determined whether or not the object name is described in the file header acquired in step S71. If the determination result is NO, the flag FLGobj is set to “0” in step S113. On the other hand, if the determination result is YES, the flag FLGobj is set to “1” in step S109, and one of one or more object names described in the file header is designated in step S111. .

ステップS111またはS113の処理が完了すると、フラグFLGsptが“1”を示すか否かをステップS115で判別する。判別結果がNOであればそのままステップS131に進み、判別結果がYESであればステップS117〜S129の処理を経てステップS131に進む。   When the process of step S111 or S113 is completed, it is determined in step S115 whether or not the flag FLGspt indicates “1”. If a determination result is NO, it will progress to step S131 as it is, and if a determination result is YES, it will progress to step S131 through the process of steps S117-S129.

ステップS117では、ステップS75の処理によって探知された撮影スポット名を撮影スポットメモとして記述する。ステップS119ではフラグFLGobjが“1”であるか否かを判別し、ステップS121ではフラグFLGprsnが“0”であるか否かを判別し、そしてステップS125ではフラグFLGownerおよびFLGotherがそれぞれ“1”および“0”を示すという論理積条件が満足されるか否かを判別する。   In step S117, the shooting spot name detected by the process of step S75 is described as a shooting spot memo. In step S119, it is determined whether the flag FLGobj is “1”, in step S121, it is determined whether the flag FLGprsn is “0”, and in step S125, the flags FLGowner and FLGother are set to “1” and “0”, respectively. It is determined whether or not a logical product condition indicating “0” is satisfied.

ステップS119の判別結果がNOであればステップS121に進み、撮影スポット名に続く助詞を“にて”に決定する。ステップS119の判別結果がYESでかつステップS123の判別結果またはステップS125の判別結果がYESであれば、ステップS127に進み、撮影スポット名に続く助詞を“の”に決定する。ステップS119の判別結果がYESでかつステップS123の判別結果およびステップS125の判別結果のいずれもがNOであれば、ステップS129に進み、ステップS121と同様、撮影スポット名に続く助詞を“にて”に決定する。   If the determination result in step S119 is NO, the process proceeds to step S121, and the particle following the shooting spot name is determined to be “de”. If the determination result in step S119 is YES and the determination result in step S123 or the determination result in step S125 is YES, the process proceeds to step S127, and the particle following the shooting spot name is determined to be “no”. If the determination result in step S119 is YES and both the determination result in step S123 and the determination result in step S125 are NO, the process proceeds to step S129, and the particle following the shooting spot name is “in” as in step S121. To decide.

ステップS131では、フラグFLGprsn,FLGplrおよびFLGotherがそれぞれ“1”,“0”および“1”を示すという論理積条件が満足されるか否かを判別する。ステップS133では、フラグFLGprsn,FLGplrおよびFLGotherがいずれも“1”を示すという論理積条件が満足されるか否かを判別する。ステップS135では、フラグFLGobjが“1”を示すか否かを判別する。   In step S131, it is determined whether or not the logical product condition that the flags FLGprsn, FLGplr, and FLGother indicate “1”, “0”, and “1”, respectively, is satisfied. In step S133, it is determined whether or not a logical product condition that flags FLGprsn, FLGplr, and FLGother all indicate “1” is satisfied. In step S135, it is determined whether or not the flag FLGobj indicates “1”.

ステップS131の判別結果がYESであればステップS137に進み、人物レジスタRGST1に登録された人物名(=カメラ所有者以外の単一の人物の名称)を人物メモとしてアルバムメモ上に記述する。ステップS139では人物メモに続く助詞を“と”に決定し、その後にステップS147に進む。   If the determination result in step S131 is YES, the process proceeds to step S137, and the person name (= name of a single person other than the camera owner) registered in the person register RGST1 is described on the album memo as a person memo. In step S139, the particle following the person memo is determined as “to”, and then the process proceeds to step S147.

ステップS131の判別結果がNOである一方、ステップS133の判別結果がYESであれば、ステップS141に進む。ステップS141では、人物レジスタRGST1に登録された複数の人物名(=カメラ所有者以外の複数の人物の名称)を人物メモとしてアルバムメモ上に記述する。ステップS143では人物メモに続く助詞を“たちと”に決定し、その後にステップS147に進む。   If the determination result of step S131 is NO, while the determination result of step S133 is YES, it will progress to step S141. In step S141, a plurality of person names (= names of a plurality of persons other than the camera owner) registered in the person register RGST1 are described on the album memo as person memos. In step S143, the particle following the person memo is determined as “tadato”, and then the process proceeds to step S147.

ステップS131の判別結果およびステップS133の判別結果がNOでかつステップS135の判別結果がYESであれば、ステップS145に進む。ステップS145では、上述のステップS111で指定された単一の物体名を物体メモとしてアルバムメモ上に記述する。記述が完了すると、ステップS147に進む。なお、ステップS131の判別結果,ステップS133の判別結果およびステップS135の判別結果のいずれもがNOであれば、そのままステップS147に進む。   If the determination result in step S131 and the determination result in step S133 are NO and the determination result in step S135 is YES, the process proceeds to step S145. In step S145, the single object name specified in step S111 described above is described on the album memo as an object memo. When the description is completed, the process proceeds to step S147. If any of the determination result in step S131, the determination result in step S133, and the determination result in step S135 is NO, the process proceeds to step S147 as it is.

ステップS147では、ステップS71で取得されたファイルヘッダに記述された日時を参照して、アルバムメモを完成する。ステップS149では、完成したアルバムメモを作成先の画像ファイルのヘッダに追記する。追記が完了すると、上階層のルーチンに復帰する。   In step S147, the album memo is completed with reference to the date and time described in the file header acquired in step S71. In step S149, the completed album memo is added to the header of the creation destination image file. When the appending is completed, the routine returns to the upper level routine.

図19を参照して、ステップS151では記録媒体38に記録された最新の画像ファイルを指定し、ステップS153では指定画像ファイルに注目した再生処理をメモリI/F36およびLCDドライバ26に命令する。   Referring to FIG. 19, in step S151, the latest image file recorded on the recording medium 38 is designated, and in step S153, the memory I / F 36 and the LCD driver 26 are instructed to perform reproduction processing focusing on the designated image file.

メモリI/F36は、指定画像ファイルに収められた撮影画像データを記録媒体38から読み出し、読み出された撮影画像データをメモリ制御回路22を通してSDRAM24の静止画像エリア24bに書き込む。LCDドライバ26は、静止画像エリア24bに格納された撮影画像データをメモリ制御回路22を通して読み出し、読み出された撮影画像データに基づいてLCDモニタ28を駆動する。この結果、撮影画像がLCDモニタ28に表示される。   The memory I / F 36 reads the captured image data stored in the designated image file from the recording medium 38 and writes the read captured image data to the still image area 24 b of the SDRAM 24 through the memory control circuit 22. The LCD driver 26 reads the captured image data stored in the still image area 24b through the memory control circuit 22, and drives the LCD monitor 28 based on the read captured image data. As a result, the captured image is displayed on the LCD monitor 28.

ステップS155ではアルバムメモが指定画像ファイルのヘッダに記述されているか否かを判別し、判別結果がNOであればそのままステップS159に進む一方、判別結果がYESであればステップS157の処理を経てステップS159に進む。ステップS157では、ファイルヘッダに記述されたアルバムメモをメモリI/F36を通して読み出し、読み出されたアルバムメモの表示をキャラクタジェネレータ32に命令する。   In step S155, it is determined whether or not the album memo is described in the header of the designated image file. If the determination result is NO, the process proceeds directly to step S159. If the determination result is YES, the process proceeds to step S157. The process proceeds to S159. In step S157, the album memo described in the file header is read through the memory I / F 36, and the character generator 32 is instructed to display the read album memo.

キャラクタジェネレータ32は、命令に従うキャラクタデータを作成し、作成されたキャラクタデータをLCDドライバ26に与える。LCDドライバ26は、与えられたキャラクタデータに基づいてLCDモニタ28を駆動する。この結果、アルバムメモがOSD態様でLCDモニタ28に表示される。   The character generator 32 creates character data according to the command, and gives the created character data to the LCD driver 26. The LCD driver 26 drives the LCD monitor 28 based on the given character data. As a result, the album memo is displayed on the LCD monitor 28 in an OSD manner.

ステップS159では、送り/戻しボタン40frが操作されたか否かを判別する。判別結果がYESであればステップS161に進み、記録媒体38に記録された次の画像ファイルまたは前の画像ファイルを指定する。指定処理が完了すると、ステップS153に戻る。この結果、別の撮影画像(およびアルバムメモ)がLCDモニタ28に表示される。   In step S159, it is determined whether or not the feed / return button 40fr has been operated. If the determination result is YES, the process proceeds to step S161, and the next image file or the previous image file recorded on the recording medium 38 is designated. When the designation process is completed, the process returns to step S153. As a result, another captured image (and album memo) is displayed on the LCD monitor 28.

ステップS159の判別結果がNOであれば、アルバムメモボタン40albmが押されたか否かをステップS163で判別する。判別結果がNOであればステップS159に戻る一方、判別結果がYESであればステップS165に進む。ステップS165では、アルバムメモが指定画像ファイルに既に存在するか否かを判別する。判別結果がYESであれば、ステップS167でアルバムメモ作成処理を実行し、その後にステップS159に戻る。一方、判別結果がNOであれば、ステップS169でアルバムメモ編集処理を実行し、その後にステップS159に戻る。   If the determination result in step S159 is NO, it is determined in step S163 whether or not the album memo button 40albm has been pressed. If the determination result is NO, the process returns to step S159, while if the determination result is YES, the process proceeds to step S165. In step S165, it is determined whether or not an album memo already exists in the designated image file. If the determination result is YES, album memo creation processing is executed in step S167, and then the process returns to step S159. On the other hand, if the determination result is NO, an album memo editing process is executed in step S169, and then the process returns to step S159.

ステップS169のアルバムメモ編集処理は、図20〜図21に示すサブルーチンに従って実行される。   The album memo editing process in step S169 is executed according to a subroutine shown in FIGS.

ステップS171では、キーボードを表すキャラクタを表示するべく、対応する命令をキャラクタジェネレータ32に与える。キャラクタジェネレータ32は、命令に従うキャラクタデータを作成し、作成したキャラクタデータをLCDドライバ26に与える。LCDドライバ26は、与えられたキャラクタデータに基づいてLCDモニタ28を駆動する。この結果、キーボードを表すキャラクタがOSD態様でLCDモニタ28に表示される。   In step S171, a corresponding command is given to the character generator 32 to display a character representing the keyboard. The character generator 32 creates character data according to the command, and gives the created character data to the LCD driver 26. The LCD driver 26 drives the LCD monitor 28 based on the given character data. As a result, a character representing the keyboard is displayed on the LCD monitor 28 in an OSD manner.

ステップS173では、表示されたキーボード上で編集操作が行われたか否かをタッチセンサ34の出力に基づいて判別する。ステップS177では、表示されたキーボード上で終了操作が行われたか否かを同じタッチセンサ34の出力に基づいて判別する。ステップS173の判別結果がYESであれば、LCDモニタ28に表示されたアルバムメモを編集する。ステップS177の判別結果がYESであれば、ステップS175の編集処理が実行されたか否かをステップS179で判別する。判別結果がNOであれば上階層のルーチンに復帰し、判別結果がYESであればステップS181に進む。   In step S173, it is determined based on the output of the touch sensor 34 whether or not an editing operation has been performed on the displayed keyboard. In step S177, it is determined based on the output of the same touch sensor 34 whether or not an end operation has been performed on the displayed keyboard. If the determination result of step S173 is YES, the album memo displayed on the LCD monitor 28 is edited. If the determination result of step S177 is YES, it will be discriminate | determined by step S179 whether the edit process of step S175 was performed. If the determination result is NO, the process returns to the upper hierarchy routine, and if the determination result is YES, the process proceeds to step S181.

ステップS181では、指定画像ファイルのヘッダに記述されたアルバムメモをステップS175で編集されたアルバムメモによって更新する。ステップS183ではアルバムメモ上の撮像スポット名が変更されたか否かを判別し、ステップS187ではアルバムメモ上の人物名が変更されたか否かを判別し、そしてステップS191ではアルバムメモ上の物体名が変更されたか否かを判別する。   In step S181, the album memo described in the header of the designated image file is updated with the album memo edited in step S175. In step S183, it is determined whether the imaging spot name on the album memo has been changed, in step S187, it is determined whether the person name on the album memo has been changed, and in step S191, the object name on the album memo is determined. Determine whether it has been changed.

ステップS183の判別結果がYESであればステップS185に進み、フラッシュメモリ46に保存された地図データ上の対応するスポット名を変更後の撮影スポット名と同じ名称に更新する。ステップS187の判別結果がYESであればステップS189に進み、人物辞書DIC1に収められた対応する人物の名称を変更後の人物名と同じ名称に変更する。   If the decision result in the step S183 is YES, the process advances to a step S185 so as to update the corresponding spot name on the map data stored in the flash memory 46 to the same name as the changed shooting spot name. If the determination result of step S187 is YES, it will progress to step S189 and will change the name of the corresponding person stored in person dictionary DIC1 to the same name as the person name after the change.

ステップS191の判別結果がYESであればステップS193に進み、物体辞書DIC2に収められた対応する物体の名称を変更後の物体名と同じ名称に変更する。ステップS191でNOと判断されるか或いはステップS193の処理が完了すると、ステップS195に進み、キーボードを表すキャラクタの非表示をキャラクタジェネレータ32に命令する。キャラクタジェネレータ32はキャラクタデータの出力を中断し、これによってキーボードを表すキャラクタが消失する。ステップS195の処理が完了すると、上階層のルーチンに復帰する。   If the determination result of step S191 is YES, it will progress to step S193 and will change the name of the corresponding object stored in the object dictionary DIC2 to the same name as the changed object name. If NO is determined in step S191 or if the process of step S193 is completed, the process proceeds to step S195, and the character generator 32 is instructed to hide the character representing the keyboard. The character generator 32 interrupts the output of the character data, whereby the character representing the keyboard disappears. When the process of step S195 is completed, the process returns to the upper layer routine.

以上の説明から分かるように、CPU30は、撮影画像データに現れた人物の名称を人物辞書DIC1を参照して検出し(S43~S61)、同じ撮影画像データに現れた人物と異なる物体の名称を物体辞書DIC2を参照して検出する(S65~S69, S49~S61)。CPU30はまた、撮影が行われたスポットの名称をGPS装置42の出力と地図データとに基づいて検出する(S75)。CPU30はその後、検出された人物の名称を表す人物メモまたは検出された物体の名称を表す物体メモのいずれか一方を記述し、さらに検出されたスポットの名称を表すスポットメモを記述したアルバムメモ(撮影メモ)を作成する(S115~S117, S131~S137, S141, S145~S47)。ただし、CPU30は、アルバムメモにおいてスポットメモに付すべき助詞を人物メモおよび物体メモの記述態様に応じて異なる要領で指定し(S119~S129)、アルバムメモにおいて人物メモに付すべき助詞を人物メモに表れる名称の数に応じて異なる要領で指定する(S131~S133, S139, S143)。   As can be seen from the above description, the CPU 30 detects the name of the person appearing in the captured image data with reference to the person dictionary DIC1 (S43 to S61), and determines the name of the object different from the person appearing in the same captured image data. Detection is performed with reference to the object dictionary DIC2 (S65 to S69, S49 to S61). The CPU 30 also detects the name of the spot where the image was taken based on the output of the GPS device 42 and the map data (S75). Thereafter, the CPU 30 describes either a person memo representing the name of the detected person or an object memo representing the name of the detected object, and an album memo describing the spot memo representing the name of the detected spot ( (Shooting Memo) is created (S115 to S117, S131 to S137, S141, S145 to S47). However, the CPU 30 designates the particles to be added to the spot memo in the album memo in different manners depending on the description mode of the person memo and the object memo (S119 to S129), and the particle to be added to the person memo in the album memo is used as the person memo. It is specified in different ways depending on the number of names that appear (S131 to S133, S139, S143).

このように、アルバムメモには、スポットメモが記述され、かつ人物メモまたは物体メモが記述される。ここで、スポットメモに付される助詞は、人物メモおよび物体メモの記述態様に応じて異なる。また、人物メモがアルバムメモに記述される場合、人物メモに付される助詞は人物メモに表れる名称の数に応じて異なる。これによって、アルバムメモの体裁を整える性能が向上する。   Thus, in the album memo, a spot memo is described, and a person memo or an object memo is described. Here, the particle attached to the spot memo differs depending on the description mode of the person memo and the object memo. In addition, when a person memo is described in an album memo, the particle attached to the person memo varies depending on the number of names appearing in the person memo. This improves the performance of arranging the album memo.

なお、この実施例では、人物レジスタDIC1に登録された名称をそのままアルバムメモに記述するようにしているが、敬称付加設定機能を追加し、この機能のオン/オフに従って人物名への敬称の付加/排除を制御するようにしてもよい。また、この実施例では、アルバムメモボタン40albmの操作に応答してアルバムメモ作成処理またはアルバムメモ編集処理を実行するようにしているが、メニュー操作に応答してこれらの処理を実行するようにしてもよい。   In this embodiment, the name registered in the person register DIC1 is described in the album memo as it is. However, a title addition setting function is added, and the title is added to the person name according to ON / OFF of this function. / Exclusion may be controlled. In this embodiment, the album memo creating process or the album memo editing process is executed in response to the operation of the album memo button 40albm. However, these processes are executed in response to the menu operation. Also good.

また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ46に予め記憶される。しかし、図22に示すように通信I/F48をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ46に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 46 in advance. However, as shown in FIG. 22, a communication I / F 48 is provided in the digital camera 10 and a part of the control program is prepared in the flash memory 46 from the beginning as an internal control program, while another part of the control program is prepared as an external control program. May be acquired from an external server. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

さらに、この実施例では、CPU30によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   Furthermore, in this embodiment, the processing executed by the CPU 30 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルカメラ
16 …イメージャ
20 …信号処理回路
24 …SDRAM
30 …CPU
32 …キャラクタジェネレータ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 16 ... Imager 20 ... Signal processing circuit 24 ... SDRAM
30 ... CPU
32 ... Character generator

Claims (12)

撮影画像に現れた人物の名称を検出する第1検出手段、
前記撮影画像に現れた人物と異なる物体の名称を検出する第2検出手段、
撮影が行われたスポットの名称を検出する第3検出手段、
前記第1検出手段によって検出された名称を表す人物メモおよび前記第2検出手段によって検出された名称を表す物体メモのいずれか一方と前記第3検出手段によって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成手段、
前記作成手段によって作成される撮影メモにおいて前記スポットメモに付すべき助詞を前記人物メモおよび前記物体メモの記述態様に応じて異なる要領で指定する第1指定手段、および
前記作成手段によって作成される撮影メモにおいて前記人物メモに付すべき助詞を前記人物メモに表れる名称の数に応じて異なる要領で指定する第2指定手段を備える、撮影メモ作成装置。
First detection means for detecting the name of a person appearing in the captured image;
Second detection means for detecting a name of an object different from the person appearing in the captured image;
Third detection means for detecting the name of the spot where the image was taken;
One of a person memo representing a name detected by the first detection means and an object memo representing a name detected by the second detection means, and a spot memo representing a name detected by the third detection means A creation means for creating the described shooting memo,
First designation means for designating a particle to be added to the spot memo in the photographing memo created by the creation means in a different manner depending on the description mode of the person memo and the object memo, and the photographing created by the creation means An imaging memo creation device comprising second designation means for designating a particle to be added to the person memo in a memo in a different manner depending on the number of names appearing in the person memo.
名称が各々に割り当てられた1または2以上の人物の特徴量を保持する第1保持手段、および
名称が各々に割り当てられた1または2以上の物体の特徴量を保持する第2保持手段をさらに備え、
前記第1検出手段は前記第1保持手段によって保持された特徴量を参照して前記人物の名称を検出し、
前記第2検出手段は前記第2保持手段によって保持された特徴量を参照して前記物体の名称を検出する、請求項1記載の撮影メモ作成装置。
A first holding unit that holds the feature amount of one or more persons each assigned a name; and a second holding unit that holds the feature amount of one or more objects each assigned a name. Prepared,
The first detecting means detects the name of the person with reference to the feature amount held by the first holding means,
The photographing memo creation device according to claim 1, wherein the second detection unit detects the name of the object with reference to the feature amount held by the second holding unit.
現在位置を測定する測定手段、および
地図データを保持する保持手段をさらに備え、
前記第2検出手段は前記測定手段によって測定された位置と前記保持手段によって保持された地図データとを参照して前記スポットの名称を検出する、請求項1または2記載の撮影メモ作成装置。
It further comprises measuring means for measuring the current position and holding means for holding map data,
3. The photographing memo creation device according to claim 1, wherein the second detection unit detects the name of the spot with reference to the position measured by the measurement unit and the map data held by the holding unit.
前記作成手段によって作成された撮影メモ上のスポットメモを編集操作に応答して更新する第1更新手段、および
前記保持手段によって保持された地図データ上の名称を前記第1更新手段によって更新されたスポットメモを参照して更新する第2更新手段をさらに備える、請求項3記載の撮影メモ作成装置。
A first updating unit that updates the spot memo on the shooting memo created by the creating unit in response to an editing operation; and the name on the map data held by the holding unit is updated by the first updating unit. The photographing memo creation device according to claim 3, further comprising second update means for updating with reference to the spot memo.
前記作成手段は前記人物メモを前記物体メモに優先して前記撮影メモに記述する記述調整手段を含む、請求項1ないし4のいずれかに記載の撮影メモ作成装置。   5. The photographing memo creation device according to claim 1, wherein the creating unit includes a description adjusting unit that describes the person memo in the photographing memo in preference to the object memo. 前記第1検出手段の検出対象は特定人物の名称を含み、
前記作成手段は前記特定人物の名称を排除して前記人物メモを作成する人物メモ作成手段を含む、請求項1ないし5のいずれかに記載の撮影メモ作成装置。
The detection target of the first detection means includes the name of a specific person,
The photographing memo creation device according to claim 1, wherein the creation unit includes a personal memo creation unit that creates the person memo by excluding the name of the specific person.
前記特定人物は前記撮影メモ作成装置の所有者に相当する、請求項6記載の撮影メモ作成装置。   The photographing memo creation device according to claim 6, wherein the specific person corresponds to an owner of the photographing memo creation device. シーンを捉える撮像手段、および
前記撮像手段の出力に基づいて前記撮影画像を作成する作成手段をさらに備える、請求項1ないし7のいずれかに記載の撮影メモ作成装置。
The photographing memo creation device according to claim 1, further comprising: an imaging unit that captures a scene; and a creation unit that creates the captured image based on an output of the imaging unit.
撮影メモ作成装置のプロセッサに、
撮影画像に現れた人物の名称を検出する第1検出ステップ、
前記撮影画像に現れた人物と異なる物体の名称を検出する第2検出ステップ、
撮影が行われたスポットの名称を検出する第3検出ステップ、
前記第1検出ステップによって検出された名称を表す人物メモおよび前記第2検出ステップによって検出された名称を表す物体メモのいずれか一方と前記第3検出ステップによって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成ステップ、
前記作成ステップによって作成される撮影メモにおいて前記スポットメモに付すべき助詞を前記人物メモおよび前記物体メモの記述態様に応じて異なる要領で指定する第1指定ステップ、および
前記作成ステップによって作成される撮影メモにおいて前記人物メモに付すべき助詞を前記人物メモに表れる名称の数に応じて異なる要領で指定する第2指定ステップを実行させるための、撮影メモ作成プログラム。
To the processor of the shooting memo creation device,
A first detection step of detecting a name of a person appearing in a captured image;
A second detection step of detecting a name of an object different from the person appearing in the captured image;
A third detection step of detecting the name of the spot where the image was taken;
Either a person memo representing the name detected by the first detection step or an object memo representing the name detected by the second detection step and a spot memo representing the name detected by the third detection step A creation step to create a written memo,
A first designation step for designating a particle to be added to the spot memo in the photographing memo created by the creating step in a different manner depending on a description mode of the person memo and the object memo, and a photographing created by the creating step A shooting memo creation program for executing a second designation step of designating a particle to be attached to the person memo in a memo in a different manner depending on the number of names appearing in the person memo.
撮影メモ作成装置によって実行される撮影メモ作成方法であって、
撮影画像に現れた人物の名称を検出する第1検出ステップ、
前記撮影画像に現れた人物と異なる物体の名称を検出する第2検出ステップ、
撮影が行われたスポットの名称を検出する第3検出ステップ、
前記第1検出ステップによって検出された名称を表す人物メモおよび前記第2検出ステップによって検出された名称を表す物体メモのいずれか一方と前記第3検出ステップによって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成ステップ、
前記作成ステップによって作成される撮影メモにおいて前記スポットメモに付すべき助詞を前記人物メモおよび前記物体メモの記述態様に応じて異なる要領で指定する第1指定ステップ、および
前記作成ステップによって作成される撮影メモにおいて前記人物メモに付すべき助詞を前記人物メモに表れる名称の数に応じて異なる要領で指定する第2指定ステップを備える、撮影メモ作成方法。
A shooting memo creation method executed by a shooting memo creation device,
A first detection step of detecting a name of a person appearing in a captured image;
A second detection step of detecting a name of an object different from the person appearing in the captured image;
A third detection step of detecting the name of the spot where the image was taken;
Either a person memo representing the name detected by the first detection step or an object memo representing the name detected by the second detection step and a spot memo representing the name detected by the third detection step A creation step to create a written memo,
A first designation step for designating a particle to be added to the spot memo in the photographing memo created by the creating step in a different manner depending on a description mode of the person memo and the object memo, and a photographing created by the creating step A shooting memo creation method comprising a second designation step of designating a particle to be attached to the person memo in a memo in a different manner depending on the number of names appearing in the person memo.
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える撮影メモ作成装置に供給される外部制御プログラムであって、
撮影画像に現れた人物の名称を検出する第1検出ステップ、
前記撮影画像に現れた人物と異なる物体の名称を検出する第2検出ステップ、
撮影が行われたスポットの名称を検出する第3検出ステップ、
前記第1検出ステップによって検出された名称を表す人物メモおよび前記第2検出ステップによって検出された名称を表す物体メモのいずれか一方と前記第3検出ステップによって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成ステップ、
前記作成ステップによって作成される撮影メモにおいて前記スポットメモに付すべき助詞を前記人物メモおよび前記物体メモの記述態様に応じて異なる要領で指定する第1指定ステップ、および
前記作成ステップによって作成される撮影メモにおいて前記人物メモに付すべき助詞を前記人物メモに表れる名称の数に応じて異なる要領で指定する第2指定ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An external control program supplied to a photographing memo creating device including a processor that executes processing according to an internal control program stored in a memory,
A first detection step of detecting a name of a person appearing in a captured image;
A second detection step of detecting a name of an object different from the person appearing in the captured image;
A third detection step of detecting the name of the spot where the image was taken;
Either a person memo representing the name detected by the first detection step or an object memo representing the name detected by the second detection step and a spot memo representing the name detected by the third detection step A creation step to create a written memo,
A first designation step for designating a particle to be added to the spot memo in the photographing memo created by the creating step in a different manner depending on a description mode of the person memo and the object memo, and a photographing created by the creating step External control for causing the processor to execute a second designation step for designating a particle to be attached to the person memo in a memo in a different manner depending on the number of names appearing in the person memo in cooperation with the internal control program program.
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える撮影メモ作成装置であって、
前記外部制御プログラムは、
撮影画像に現れた人物の名称を検出する第1検出ステップ、
前記撮影画像に現れた人物と異なる物体の名称を検出する第2検出ステップ、
撮影が行われたスポットの名称を検出する第3検出ステップ、
前記第1検出ステップによって検出された名称を表す人物メモおよび前記第2検出ステップによって検出された名称を表す物体メモのいずれか一方と前記第3検出ステップによって検出された名称を表すスポットメモとが記述された撮影メモを作成する作成ステップ、
前記作成ステップによって作成される撮影メモにおいて前記スポットメモに付すべき助詞を前記人物メモおよび前記物体メモの記述態様に応じて異なる要領で指定する第1指定ステップ、および
前記作成ステップによって作成される撮影メモにおいて前記人物メモに付すべき助詞を前記人物メモに表れる名称の数に応じて異なる要領で指定する第2指定ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、撮影メモ作成装置。
An imaging memo creation device comprising a capturing unit that captures an external control program, and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
A first detection step of detecting a name of a person appearing in a captured image;
A second detection step of detecting a name of an object different from the person appearing in the captured image;
A third detection step of detecting the name of the spot where the image was taken;
Either a person memo representing the name detected by the first detection step or an object memo representing the name detected by the second detection step and a spot memo representing the name detected by the third detection step A creation step to create a written memo,
A first designation step for designating a particle to be added to the spot memo in the photographing memo created by the creating step in a different manner depending on a description mode of the person memo and the object memo, and a photographing created by the creating step Shooting memo creation corresponding to a program for executing a second designation step for designating a particle to be attached to the person memo in a memo in a different manner depending on the number of names appearing in the person memo apparatus.
JP2011144730A 2011-06-29 2011-06-29 Photographic memo creation device Withdrawn JP2013012933A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011144730A JP2013012933A (en) 2011-06-29 2011-06-29 Photographic memo creation device
PCT/JP2012/064436 WO2013001990A1 (en) 2011-06-29 2012-06-05 Photograph memo creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144730A JP2013012933A (en) 2011-06-29 2011-06-29 Photographic memo creation device

Publications (1)

Publication Number Publication Date
JP2013012933A true JP2013012933A (en) 2013-01-17

Family

ID=47423890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144730A Withdrawn JP2013012933A (en) 2011-06-29 2011-06-29 Photographic memo creation device

Country Status (2)

Country Link
JP (1) JP2013012933A (en)
WO (1) WO2013001990A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102147485B1 (en) * 2019-05-17 2020-08-24 네이버 주식회사 Guide method and system for taking a picture

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229091A (en) * 2013-05-23 2014-12-08 オムロン株式会社 Program for character input
CN105302315A (en) 2015-11-20 2016-02-03 小米科技有限责任公司 Image processing method and device
CN115705118B (en) * 2021-08-06 2024-08-13 荣耀终端有限公司 Card information management method and electronic equipment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289560A (en) * 2003-03-24 2004-10-14 Sony Corp Image recording and reproducing method and image recording and reproducing apparatus
JP4444856B2 (en) * 2005-02-28 2010-03-31 富士フイルム株式会社 Title assigning device, title assigning method, and program
JP2007183821A (en) * 2006-01-06 2007-07-19 Seiko Epson Corp Setting of sentence related to image
CN102334106A (en) * 2008-12-22 2012-01-25 松下电器产业株式会社 Content storage processing system, content storage processing method, and semiconductor integrated circuit
JP5423052B2 (en) * 2009-02-27 2014-02-19 株式会社ニコン Image processing apparatus, imaging apparatus, and program
JP5023398B2 (en) * 2009-03-17 2012-09-12 Necフィールディング株式会社 Electronic album creation apparatus, method, program, system, server, information processing apparatus, terminal apparatus, and imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102147485B1 (en) * 2019-05-17 2020-08-24 네이버 주식회사 Guide method and system for taking a picture

Also Published As

Publication number Publication date
WO2013001990A1 (en) 2013-01-03

Similar Documents

Publication Publication Date Title
KR101475939B1 (en) Method of controlling image processing apparatus, image processing apparatus and image file
JP4039847B2 (en) Image processing apparatus and program
JP2003150932A (en) Image processing unit and program
EP3340613B1 (en) Image processing method, image processing device, and program
JP2006314010A (en) Apparatus and method for image processing
WO2013001990A1 (en) Photograph memo creation device
JP2011071573A (en) Image processing apparatus
CN106713700A (en) Picture processing method and apparatus, as well as terminal
JP2010086221A (en) Image editing method and device, and computer readable recording medium storing program for implementing the method
JP2004005534A (en) Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods
JP5124994B2 (en) Image reproduction system, digital camera, and image reproduction apparatus
JP2012191442A (en) Image reproduction controller
JP5485781B2 (en) Electronic camera
JP2009182544A (en) Video information processor
JP2011193063A (en) Electronic camera
JP5955035B2 (en) Video generation apparatus and control method thereof
JP2007179389A (en) Photographing device
JP2013046374A (en) Image processor
US12106561B2 (en) Information processing device, information processing method, and program
JP5428243B2 (en) Image processing apparatus, electronic camera, and image distribution program
JP6296833B2 (en) Image / audio processing apparatus, image / audio processing method, and program
JP2008131559A (en) Imaging apparatus, group member determining method, and program
JP2007181020A (en) Photographing apparatus
JP4882525B2 (en) Image reproduction system, digital camera, and image reproduction apparatus
JP6597263B2 (en) Information processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902