JP5173666B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP5173666B2
JP5173666B2 JP2008206062A JP2008206062A JP5173666B2 JP 5173666 B2 JP5173666 B2 JP 5173666B2 JP 2008206062 A JP2008206062 A JP 2008206062A JP 2008206062 A JP2008206062 A JP 2008206062A JP 5173666 B2 JP5173666 B2 JP 5173666B2
Authority
JP
Japan
Prior art keywords
phrase
information
unit
time
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008206062A
Other languages
Japanese (ja)
Other versions
JP2010045435A (en
JP2010045435A5 (en
Inventor
龍一 清重
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2008206062A priority Critical patent/JP5173666B2/en
Publication of JP2010045435A publication Critical patent/JP2010045435A/en
Publication of JP2010045435A5 publication Critical patent/JP2010045435A5/ja
Application granted granted Critical
Publication of JP5173666B2 publication Critical patent/JP5173666B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明はカメラに関し、より詳細には、物語性のある写真鑑賞を可能とするカメラに関するものである。 The present invention also relates to a camera and, more particularly, the present invention relates to a camera that allows photo viewing with a narrative.

デジタルカメラの普及によって、画像がデジタル化され、転送なども容易となり、スライドショーの活用、電子アルバムによる自動レイアウト等、様々な画像鑑賞の可能性が広がっている。   With the widespread use of digital cameras, images are digitized and can be easily transferred, and various image viewing possibilities such as the use of slideshows and automatic layout using electronic albums are expanding.

また、音楽をBGMにしたり、画像に文字を合成したりすることも、手間をかければ誰にでもできるようになっている。前述のスライドショーなどでも、複数の画像を利用して、相互作用でより豊かな情感を伝えることも可能となっている。   Also, anyone can add music to BGM or synthesize characters into images if it takes time. Even in the above-mentioned slide show, it is possible to convey a richer feeling through interaction using a plurality of images.

こうした流れの中で、凝った画像に見慣れてしまうと、カメラで撮影した画像だけを見せられても、単調に感じたり、味気なく感じたりする鑑賞者が増えている。一方で、さりげないコメントが入っているだけでも、撮影者が身近に感じられて、その写真の持つ雰囲気が変わることがある。そのため、簡単に画像にコメントを添える技術が模索されている。   In this trend, if you get used to elaborate images, even if you can show only the images taken with the camera, there are an increasing number of viewers who feel monotonous or tasteless. On the other hand, even if a casual comment is included, the photographer may feel familiar and the atmosphere of the photograph may change. Therefore, a technique for easily adding comments to images is being sought.

また、前述したスライドショーや電子アルバム等に於いて、個々の画像にコメントを付けて、全体としてストーリーができるような表現方法が求められている。単に、コメントを画像に付けるものとしては、例えば、下記特許文献1及び特許文献2のような技術がある。例えば、下記特許文献1には、撮影画像に対して後の整理・検索に役立つ具体的な識別清報を簡単に付加することができるデジタルスチルカメラ及びその制御方法が開示されている。また、下記特許文献2には、季語等によって、写真と俳句を関連付ける技術が開示されている。
特開2007−228608号公報 特開2004−240579号公報
In addition, there is a need for an expression method that allows a story to be created as a whole by adding comments to individual images in the aforementioned slide show, electronic album, and the like. For example, there are technologies such as Patent Document 1 and Patent Document 2 described below for simply adding a comment to an image. For example, Patent Document 1 below discloses a digital still camera and a control method thereof that can easily add specific identification information useful for rearrangement / retrieval to a captured image. Patent Document 2 below discloses a technique for associating a photograph with a haiku using a seasonal word or the like.
JP 2007-228608 A JP 2004-240579 A

しかしながら、前記特許文献1に記載のカメラでは、ユーザがタッチパネルに表示されるアイコンを逐一選択しなければならず、煩わしいものであった。また、前記特許文献2に記載の技術では、一枚の写真で完結するため、撮影した写真群から物語性を得ることができないものであった。   However, the camera described in Patent Document 1 is troublesome because the user must select icons displayed on the touch panel one by one. Moreover, since the technique described in Patent Document 2 is completed with a single photograph, it is impossible to obtain a narrative from the photographed photograph group.

したがって、本発明は前記実情に鑑みてなされたものであり、その目的は、撮影をアドバイスするキーワードと、該キーワードに従った撮影の結果得られた画像の内容から、当該キーワードを修飾したコメントを合成して画像に表示することが可能なカメラを提供することである。 Accordingly, the present invention has been made in view of the above circumstances, and its purpose is to provide a keyword that advises shooting and a comment that modifies the keyword from the contents of an image obtained as a result of shooting according to the keyword. synthesized and to provide a camera capable of displaying an image.

請求項1に記載の発明は、被写体を撮影する撮影部と、撮影者に対して次に撮影すべき被写体の候補に関する情報を抽出し出力するテーマ抽出手段と、前記テーマ抽出手段から出力された情報に基づいて、次に撮影すべき被写体の候補に関する情報をアドバイスとして前記撮影者に告知する告知手段と、前記撮影部で前記アドバイスに基づいて撮影された画像の特徴を検出する特徴検出手段と、前記テーマ抽出手段の出力と関連したフレーズの候補の文言に前記特徴検出手段の出力に基づいて抽出された文言を合成してフレーズを作成し、この作成されたフレーズを、前記撮影された画像と共に前記撮影者に告知するフレーズ合成手段と、を具備することを特徴とする。 According to the first aspect of the present invention, there is provided a photographing unit for photographing a subject, a theme extracting unit for extracting and outputting information on a candidate for a subject to be photographed next for a photographer, and the theme extracting unit. Based on the information, notification means for notifying the photographer of information relating to a candidate for a subject to be photographed next as advice, and feature detection means for detecting the characteristics of the image photographed based on the advice by the photographing unit; , to create a phrase combined and wording extracted based on the output of the feature detection means wording of candidates of related phrases to the output of the theme extracting unit, the created phrase was the shot Phrase synthesizing means for notifying the photographer together with the image.

請求項に記載の発明は、請求項1に記載の発明に於いて、撮影時の位置情報を取得する位置取得部と、前記撮影時の時刻情報を取得する時刻検出部、とを更に具備し、前記テーマ抽出手段は、前記撮影時の位置情報及び時刻情報の少なくとも一方に基づいて、次に撮影すべき被写体の候補に関する情報を抽出することを特徴とする。 The invention described in claim 2 further comprises a position acquisition unit that acquires position information at the time of shooting, and a time detection unit that acquires time information at the time of shooting in the invention of claim 1. The theme extracting unit extracts information on a candidate for a subject to be photographed next based on at least one of the position information and time information at the time of photographing.

請求項に記載の発明は、請求項に記載の発明に於いて、前記位置取得部で取得された撮影時の位置情報及び前記時刻検出部で取得された撮影時の時刻情報の少なくとも一方に基づいて特定の情報を外部機器より取得するための通信部を更に具備することを特徴とする。 According to a third aspect of the present invention, in the second aspect of the present invention, at least one of the positional information at the time of photographing acquired by the position acquisition unit and the time information at the time of photographing acquired by the time detection unit. And further comprising a communication unit for acquiring specific information from an external device.

請求項に記載の発明は、請求項に記載の発明に於いて、前記フレーズ合成手段は、前記位置取得部で前記位置情報が取得された場合には、前記フレーズの候補の文言に前記位置情報に基づいて抽出された文言を合成して前記フレーズを作成することを特徴とする。 According to a fourth aspect of the present invention, in the second aspect of the present invention, the phrase synthesizing unit adds the phrase candidate word to the phrase when the position information is acquired by the position acquisition unit. The phrase is created by synthesizing words extracted based on position information.

請求項に記載の発明は、請求項に記載の発明に於いて、前記フレーズ合成手段は、前記時刻検出部で前記時刻情報が取得された場合には、前記フレーズの候補の文言に前記時刻情報に基づいて抽出された文言を合成して前記フレーズを作成することを特徴とする。 The invention according to claim 5 is the invention according to claim 2 , wherein when the time information is acquired by the time detection unit, the phrase synthesizing unit adds the phrase candidate words to the phrase candidate words. The phrase is created by synthesizing words extracted based on time information.

請求項に記載の発明は、請求項に記載の発明に於いて、前記フレーズ合成手段は、前記特徴検出手段で色の情報が取得された場合には、前記フレーズの候補の文言に前記色の情報に基づいて抽出された文言を合成して前記フレーズを作成することを特徴とする。 The invention according to claim 6 is the invention according to claim 2 , wherein when the color information is acquired by the feature detecting means, the phrase synthesizing means adds the phrase candidate words to the phrase candidate words. The phrase is created by synthesizing words extracted based on color information.

請求項に記載の発明は、請求項に記載の発明に於いて、前記撮影された画像が前記フレーズ合成手段で作成されたフレーズに合致した場合は、該フレーズ及び当該画像を記録する記録手段を更に具備することを特徴とする。 The invention according to claim 7, in the invention described in claim 2, if the photographed image matches the phrase that is created by the phrase combining means records 該Fu phrase and the image The recording apparatus further includes recording means for performing the above-described operation.

請求項に記載の発明は、請求項1に記載の発明に於いて、前記フレーズを表示する表示手段を更に具備することを特徴とする。 The invention according to claim 8, in the invention described in claim 1, further characterized by comprising a display means for displaying the phrase.

請求項に記載の発明は、請求項に記載の発明に於いて、前記表示手段は、前記撮影された画像と共に前記フレーズを表示することを特徴とする請求項8に記載のカメラ。 The invention according to claim 9, in the invention described in claim 8, wherein the display means, a camera according to claim 8, characterized in that displaying the phrase together with the captured image.

本発明によれば、撮影をアドバイスするキーワードと、該キーワードに従った撮影の結果得られた画像の内容から、当該キーワードを修飾したコメントを合成して画像に表示することが可能なカメラを提供することができる。 According to the present invention, and keywords to advise the shooting, from the contents of the image obtained as a result of the shooting in accordance with the keyword, the camera capable of displaying the image by combining the comments that modified the keyword Can be provided.

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態であって、撮影システムが適用されたデジタルカメラ10の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of a digital camera 10 to which an imaging system is applied according to an embodiment of the present invention.

図1に於いて、このデジタルカメラ10は、位置検出部11と、時刻検出部12と、通信部13と、撮影部14と、特徴検出部15と、データベース(DB)部16と、シーン抽出部18と、候補表示部19と、フレーズ合成部20と、候補表示部20aを含む表示部20と、制御部22と、を有して構成される。   In FIG. 1, a digital camera 10 includes a position detection unit 11, a time detection unit 12, a communication unit 13, a photographing unit 14, a feature detection unit 15, a database (DB) unit 16, and a scene extraction. A unit 18, a candidate display unit 19, a phrase synthesis unit 20, a display unit 20 including a candidate display unit 20 a, and a control unit 22 are configured.

前記位置検出部11は、GPSからの電波を受信し、撮影時のデジタルカメラ10の位置情報を検出・取得するための位置取得部である。前記時刻検出部12は、このデジタルカメラ10に内蔵される時計機能を有したもので、前記位置検出部11で取得された位置に於ける時刻情報を取得するものである。前記通信部13は、図示されない外部機器との通信、例えば撮影スポット情報等の特定の情報を取得するためのものである。   The position detection unit 11 is a position acquisition unit for receiving radio waves from GPS and detecting / acquiring position information of the digital camera 10 at the time of shooting. The time detection unit 12 has a clock function built in the digital camera 10 and acquires time information at the position acquired by the position detection unit 11. The communication unit 13 is for communication with an external device (not shown), for example, for acquiring specific information such as shooting spot information.

撮影部14は、写真撮影時に写真画像を得る撮影手段である。特徴検出部15は、前記撮影部14より得られた写真画像を解析して写真の特徴を検出する特徴検出手段であり、画像処理機能を有している。この特徴検出には、例えば、色分布や顔検出等が用いられる。データベース部16は、撮影位置、時刻、及び写真の特徴を格納する記録手段である。   The photographing unit 14 is photographing means for obtaining a photographic image at the time of photographing. The feature detection unit 15 is a feature detection unit that detects the feature of the photograph by analyzing the photograph image obtained from the photographing unit 14, and has an image processing function. For this feature detection, for example, color distribution or face detection is used. The database unit 16 is a recording unit that stores the shooting position, time, and photograph characteristics.

シーン抽出部18は、最初に取得した位置情報及び時刻情報より撮影テーマ選択を撮影者であるユーザに促し、更に撮影した写真の特徴と撮影位置情報より、次の撮影シーンを抽出するためのテーマ抽出手段である。表示部20は告知手段としての候補表示部20aを有するもので、撮影部14で取得された画像(写真)を表示するためのディスプレイ等の表示手段である。候補表示部20aは、前記シーン抽出部18で抽出されたシーン情報をアドバイスとして表示する。フレーズ合成部21は、撮影後に、候補表示部20aに表示されたシーン情報と写真の特徴より、フレーズを作成、合成するものでフレーズ合成手段を構成する。また、制御部22は、ユーザの操作に従った制御を行うもので、このデジタルカメラ10全体の制御を司るものである。   The scene extraction unit 18 prompts the user who is a photographer to select a shooting theme from the position information and time information acquired first, and further extracts a next shooting scene from the characteristics of the photographed photograph and the shooting position information. Extraction means. The display unit 20 includes a candidate display unit 20a as a notification unit, and is a display unit such as a display for displaying an image (photograph) acquired by the photographing unit 14. The candidate display unit 20a displays the scene information extracted by the scene extraction unit 18 as advice. The phrase synthesizing unit 21 composes a phrase synthesizing unit by creating and synthesizing a phrase from the scene information displayed on the candidate display unit 20a and the feature of the photograph after photographing. The control unit 22 performs control in accordance with the user's operation, and controls the entire digital camera 10.

次に、図2を参照して、本発明の一実施形態に於けるデジタルカメラ10に於いて、撮影された写真にフレーズを関連付ける方法について説明する。   Next, a method for associating a phrase with a photographed picture in the digital camera 10 according to an embodiment of the present invention will be described with reference to FIG.

時刻検出部12より検出された時刻情報を基に、季節及び時刻が特定される。特定して季節を表すキーワードとしては、例えば、「立春」、「春分」、「春」、「初夏」、「夏」、「秋分」、「秋」、「冬」、「冬至」などがある。また、特定された時刻を表すキーワードとしては、例えば、「早朝」、「朝」、「午前」、「正午」、「昼」、「午後」、「タ方」、「夜」、「深夜」などがある。   The season and time are specified based on the time information detected by the time detector 12. Specific keywords that represent the season include, for example, “Early Spring”, “Equinox”, “Spring”, “Early Summer”, “Summer”, “Autumn”, “Autumn”, “Winter”, “Winter Solstice”, etc. . Further, as keywords representing the specified time, for example, “early morning”, “morning”, “morning”, “noon”, “daytime”, “afternoon”, “takata”, “night”, “midnight” and so on.

位置検出部11より検出された位置情報を基に、地図上の位置が特定される。ここで、特定された地図上の位置を表すキーワードとしては、その場所を表す大まかなもの、例えば、「山」、「畑」、「海」など、そしてその場所を示す目印のようなもの、例えば、「学校」、「会社」などがある。季節を表すキーワードと場所を表すキーワードから、フレーズが合成され、写真に関連付けられる。   Based on the position information detected by the position detector 11, the position on the map is specified. Here, as a keyword indicating the position on the specified map, a rough thing indicating the place, for example, “mountain”, “field”, “sea”, and a mark indicating the place, For example, there are “school” and “company”. Phrases are synthesized from keywords representing seasons and keywords representing places and associated with photos.

更に、特徴検出部15より検出された情報を基に、被写体の特徴が特定される。特定された被写体を表すキーワードの分類としては、「色(赤、青、黄、緑、など)」、「形(丸、三角、四角、長、短、など)」及び「推定された被写体(花、人、車、など)」がある。   Furthermore, the feature of the subject is specified based on the information detected by the feature detection unit 15. The keywords representing the identified subject include “color (red, blue, yellow, green, etc.)”, “shape (circle, triangle, square, long, short, etc.)” and “estimated subject ( Flowers, people, cars, etc.) ".

前述した季節、場所と被写体のキーワードから、フレーズのテンプレートを基にフレーズが合成されて、写真に関連付けられる。   Phrases are synthesized based on the phrase template from the season, place, and subject keywords described above, and associated with the photo.

例えば、図2(a)に示されるように、位置情報より「山」、時刻情報より「秋」、被写体の特徴情報より「人」、の組合せにより、ハイキングのシーンが推定され、「秋のハイキング」というフレーズ26aが合成されて写真に関連付けられる。   For example, as shown in FIG. 2A, a hiking scene is estimated by a combination of “mountain” from position information, “autumn” from time information, and “person” from subject feature information. The phrase “hiking” 26a is synthesized and associated with the photograph.

また、図2(b)に示されるように、位置情報として「山」、時刻情報として「春」、被写体の特徴情報より「赤・花」、の組合せにより、山で赤い花を撮影したことが推定され、「赤い花をみつけた」というフレーズ26bが合成されて写真に関連付けられる。   In addition, as shown in FIG. 2 (b), a red flower was photographed in a mountain by a combination of “mountain” as position information, “spring” as time information, and “red / flower” from subject feature information. Is estimated and the phrase 26b "I found a red flower" is synthesized and associated with the photograph.

次に、図3及び図4を参照して、ユーザに撮影テーマの選択を促すことについて説明する。   Next, referring to FIGS. 3 and 4, prompting the user to select a shooting theme will be described.

図3は、ユーザに選択を促すためのテーマを示した図である。   FIG. 3 is a diagram showing a theme for prompting the user to select.

図3に於いて、時刻検出部12で取得される情報から特定された季節を表すキーワードと、位置検出部11で取得される情報から特定された場所を表すキーワードを、通信部13を介して、図示されないサーバへ問い合わせが行われ、ピックアップされたキーワードから連想される数点のテーマの大枠が、前記サーバより取得される。   In FIG. 3, a keyword representing a season specified from information acquired by the time detection unit 12 and a keyword indicating a place specified from information acquired by the position detection unit 11 are transmitted via the communication unit 13. An inquiry is made to a server (not shown), and a large frame of several themes associated with the picked-up keywords is acquired from the server.

ピックアップされたテーマの大枠は、「家族野山ハイキング」や「野鳥観察」などである。ピックアップされたテーマの大枠がユーザによって選択され、ユーザによって「家族野山ハイキング」が選択された場合、そのテーマ情報を基に、通信部13を介して図示されないサーバへ問い合わせが行われる。次いで、前記サーバより、そのテーマに沿ったシナリオデータ、撮影スポット情報、フレーズのテンプレート、キーワード、画像の特徴データが取得される。そして、シナリオデータに沿って、テーマに沿った撮影シーンがアドバイスされる。   The main theme of the picked up theme is “Family Wild Mountain Hiking” and “Wild Bird Observation”. When the outline of the picked theme is selected by the user and “family mountain hiking” is selected by the user, an inquiry is made to a server (not shown) via the communication unit 13 based on the theme information. Next, scenario data, shooting spot information, phrase templates, keywords, and image feature data according to the theme are acquired from the server. Then, along with the scenario data, a shooting scene along the theme is advised.

図4は、撮影テーマとアドバイスを説明するための図である。   FIG. 4 is a diagram for explaining a shooting theme and advice.

先ず、図4(a)に示されるデジタルカメラ10のディスプレイ(表示部20)に、図4(b)に示されるような撮影テーマ選択メニューを表示される。ユーザが撮影を始める前に、図4(b)に示されるようなメニュー階層を辿ることによって、所望のテーマが選択される。図4(a)に示される例では、先ず、メニュー第1階層で「プライベート」が選択され、メニュー第2階層で「遠出」が選択され、更に、メニュー第3階層で「日帰り」が選択される。   First, a shooting theme selection menu as shown in FIG. 4B is displayed on the display (display unit 20) of the digital camera 10 shown in FIG. Before the user starts photographing, a desired theme is selected by following a menu hierarchy as shown in FIG. In the example shown in FIG. 4A, first, “Private” is selected in the first menu level, “Excursion” is selected in the second menu level, and “Day trip” is selected in the third menu level. The

選択された各メニュー階層の各メニューは、キーワードとして利用される。このキーワードと撮影を始める時の位置情報、時刻情報より、撮影シーンの候補が抽出される。例えば、上記例が選択された場合、位置情報が「山」、時刻情報より「春」、選択されたキーワードの組合せによって、図4(c)に示されるように、「忘れずに撮りましよう」というカテゴリの中に、「1.代表的な風景」、「2.きれいな花」、「3.家族みんなで」という撮影シーンのアドバイスが抽出される。   Each menu in each selected menu hierarchy is used as a keyword. A candidate for a photographic scene is extracted from this keyword, position information at the start of photographing, and time information. For example, when the above example is selected, the position information is “mountain”, the time information is “spring”, and the combination of the selected keywords, as shown in FIG. In the category “”, advice on shooting scenes “1. Typical landscape”, “2. Beautiful flowers”, “3. With the whole family” is extracted.

次に、図5を参照して、合成フレーズの候補の文言、表示アドバイス、撮影された写真群の関連付けについて説明する。   Next, with reference to FIG. 5, description will be given of the wording of the synthetic phrase candidate, the display advice, and the association of the photographed photograph group.

図5(a)〜(c)は、合成フレーズの候補の文言、表示アドバイス、撮影した写真群の関連付けを説明するための図である。   FIG. 5A to FIG. 5C are diagrams for explaining the association of candidate phrases, display advice, and photographed photograph groups.

図5(b)に示されるようなアドバイスA1〜A3は、それぞれ図5(a)に示されるようなフレーズM1、M2、M11、M12、M21、M22と関連している。ユーザにより写真撮影が行われる時、デジタルカメラ10では、図5(b)に示されるようなアドバイスA1〜A3が候補表示部(表示装置)20aに表示される。ユーザは、この表示されたアドバイスを考慮して撮影を行う。この時、撮影された図5(c)に示されるような写真P1〜P5は、そのアドバイスと関連を持っている。したがって、アドバイスと関連した写真と、アドバイスと関連したフレーズが結びつけられる。   The advices A1 to A3 as shown in FIG. 5B are related to the phrases M1, M2, M11, M12, M21, and M22 as shown in FIG. When the user takes a picture, the digital camera 10 displays advices A1 to A3 as shown in FIG. 5B on the candidate display unit (display device) 20a. The user takes a picture in consideration of the displayed advice. At this time, photographs P1 to P5 as shown in FIG. 5C are related to the advice. Therefore, the photograph associated with the advice and the phrase associated with the advice are combined.

次に、図6のフローチャートを参照して、本実施形態に於けるデジタルカメラ10の制御動作について説明する。ここでは、ユーザが撮影テーマを選択する場合と、ユーザが写真撮影を行う場合と、ユーザが撮影した写真を再生する場合について説明する。   Next, the control operation of the digital camera 10 in this embodiment will be described with reference to the flowchart of FIG. Here, a case where the user selects a shooting theme, a case where the user takes a photograph, and a case where the photograph taken by the user is reproduced will be described.

尚、この制御動作は、主に制御部22によって行われる。   This control operation is mainly performed by the control unit 22.

先ず、カメラが起動されると、ステップS1に於いて、撮影モードが確認される。ここで、撮影モードであればステップS2へ移行し、そうでない場合は後述するステップS11に移行する。   First, when the camera is activated, the shooting mode is confirmed in step S1. If it is the photographing mode, the process proceeds to step S2, and if not, the process proceeds to step S11 described later.

ステップS2は、撮影可能な状態へ遷移されている。ここで、図示されないシャッタ釦が押されていない状態(スルー画表示中等)でシャッタ釦が押された場合は、ステップS3に移行する。このステップS3では、撮影が行われて、画像がデータベース部16に記録される。   In step S2, the state is changed to a state where photographing is possible. Here, when the shutter button (not shown) is not pressed (when a through image is displayed), the process proceeds to step S3. In step S3, shooting is performed and an image is recorded in the database unit 16.

次に、ステップS4に於いて、撮影された写真より抽出された特徴、撮影位置、撮影時刻等のデータを基に、関連するデータの取得が行われてデータが取得できたかどうかが判定される。ここで、データが取得できた場合は、ステップS5に移行して、取得されたデータと画像の関連付けが行われる。一方、データが取得できない場合は、本シーケンスが終了する。   Next, in step S4, based on the data extracted from the photographed photograph, such as characteristics, photographing position, photographing time, etc., it is determined whether or not the relevant data is obtained and the data can be obtained. . If the data can be acquired, the process proceeds to step S5, and the acquired data is associated with the image. On the other hand, if the data cannot be acquired, this sequence ends.

ステップS6では、撮影アドバイスに合致した画像であるかの判定処理が行われる。尚、このステップS6のサブルーチン「アドバイス画像判定処理」の詳細な動作については後述する。前記ステップS6の判定処理の結果、ステップS7に於いて、撮影アドバイスに合致すれば、ステップS8に移行してアドバイス画像としてデータベース部16に記録される。一方、撮影アドバイスに合致した画像ではなかった場合は、前記ステップS4に移行して、再度データの取得が行われる。   In step S6, a process for determining whether the image matches the photographing advice is performed. The detailed operation of the subroutine “advice image determination processing” in step S6 will be described later. As a result of the determination process in step S6, if the photographing advice is met in step S7, the process proceeds to step S8 and is recorded in the database unit 16 as an advice image. On the other hand, if the image does not match the photographing advice, the process proceeds to step S4, and data acquisition is performed again.

また、前記ステップS2に於いて、図示されないシャッタ釦が押されていない状態(スルー画表示中)であれば、ステップS9に移行する。ここで、撮影テーマが指定されていれば、ステップS10に移行してデジタルカメラ10の候補表示部20aにアドバイス表示が行われる。その後、前記ステップS9に移行する。   If it is determined in step S2 that a shutter button (not shown) is not pressed (through image display is in progress), the process proceeds to step S9. Here, if a shooting theme is designated, the process proceeds to step S10 and advice display is performed on the candidate display unit 20a of the digital camera 10. Thereafter, the process proceeds to step S9.

一方、前記ステップS9に於いて撮影テーマが選択されていない場合は、撮影テーマ選択を行うように促されるべく、前記ステップS1に移行する。   On the other hand, if no shooting theme has been selected in step S9, the process proceeds to step S1 to prompt the user to select a shooting theme.

次に、ユーザが撮影した写真を再生する場合の動作について説明する。   Next, an operation for reproducing a photograph taken by the user will be described.

前記ステップS1にて撮影モードでないとされた場合は、ステップS11に於いて、再生モードであるか否かが判定される。ここで、再生モードであればステップS12に移行するが、そうでない場合は、後述するステップS19へ移行する。   If it is determined in step S1 that the shooting mode is not set, it is determined in step S11 whether or not the playback mode is set. Here, if it is the reproduction mode, the process proceeds to step S12. If not, the process proceeds to step S19 described later.

前記ステップS11で再生モードであると判定された場合は、ステップS12にて再生する画像が選択される。次いで、ステップS13にて、再生画像の選択がなされたか否かが判定される。ここで、画像が選択されなければ、再度、再生モードに移行するかどうかをユーザの入力に促されるべく前記ステップS11に移行する。   If it is determined in step S11 that the playback mode is selected, an image to be played back is selected in step S12. Next, in step S13, it is determined whether or not a reproduction image has been selected. If no image is selected, the process proceeds to step S11 to prompt the user to input again whether or not to shift to the reproduction mode.

前記ステップS13で再生画像が選択されたと判定された場合は、ステップS14に移行して、選択された画像が撮影アドバイスによるものか否かの判定が行われる。ここで、撮影アドバイスによる写真であれば、ステップS15に移行して、撮影アドバイスと撮影時のデータを基に、文言(フレーズ)が合成される。尚、このステップS15のサブルーチン「アドバイスと撮影時データよりコメントを合成」の詳細な動作については後述する。次いで、ステップS16では、合成された文言(フレーズ)がコメントとして、撮影された写真と関連付けて再生される。   If it is determined in step S13 that a reproduced image has been selected, the process proceeds to step S14 to determine whether the selected image is based on shooting advice. Here, if it is a photograph based on photographing advice, the process proceeds to step S15, and a word (phrase) is synthesized based on the photographing advice and data at the time of photographing. The detailed operation of the subroutine “Combine comments from advice and shooting data” in step S15 will be described later. Next, in step S16, the synthesized word (phrase) is reproduced as a comment in association with the photographed photo.

一方、前記ステップS14に於いて、選択された画像が撮影アドバイスによるものでない場合は、ステップS17に移行して通常の画像再生が行われる。   On the other hand, if it is determined in step S14 that the selected image is not based on shooting advice, the process proceeds to step S17, where normal image reproduction is performed.

そして、選択された画像が全て再生終了したならば、ステップS18に移行して、再生モードを終了する否かが判定される。その結果、再生終了の場合は再生モードが終了して、本シーケンスが終了する。一方、再生終了でない場合は、前記ステップS13に移行して、再度画像選択が行われる。   If all the selected images have been reproduced, the process proceeds to step S18 to determine whether or not to end the reproduction mode. As a result, in the case of end of playback, the playback mode ends and this sequence ends. On the other hand, if it is not the end of reproduction, the process proceeds to step S13, and image selection is performed again.

次に、撮影テーマの選択動作について説明する。   Next, the shooting theme selection operation will be described.

前記ステップS11にて再生モードではないと判定された場合には、ステップS19に移行して、テーマ指定モードであるか否かが判定される。ここで、テーマ指定で無ければ、前述したステップS1に移行し、テーマ指定モードであればステップS20に移行する。このステップS20では、選択可能なテーマが候補表示部20aに表示されて、ユーザに対して入力が促される。ここで、ユーザによりテーマ選択が行われると、続くステップS21にて、ユーザによって指定されたテーマが、デジタルカメラ10に記録される。その後、本シーケンスが終了する。   If it is determined in step S11 that the mode is not the playback mode, the process proceeds to step S19 to determine whether the mode is the theme designation mode. If the theme is not designated, the process proceeds to step S1 described above, and if the theme is designated, the process proceeds to step S20. In step S20, selectable themes are displayed on the candidate display unit 20a, and the user is prompted to input. Here, when the user selects a theme, the theme designated by the user is recorded in the digital camera 10 in the subsequent step S21. Thereafter, this sequence ends.

図7は、図6のフローチャートのステップS6に於けるサブルーチン「アドバイス画像判定処理(日帰り)の詳細な動作を説明するためフローチャートである。ここでは、撮影を行った写真が撮影アドバイスに則った写真であるかどうかが判定される。   7 is a flowchart for explaining the detailed operation of the subroutine “advice image determination processing (one-day trip) in step S6 of the flowchart of FIG. 6. Here, the photograph taken is a photograph according to the photographing advice. It is determined whether or not.

ここでは、図4(c)に示されるように、テーマとして「日帰り」が選択された場合について説明する。この場合、撮影アドバイスとして「家族みんなで」というフレーズが存在する。したがって、先ず、ステップS31にて、撮影画像中の被写体に人の顔があるか否か、顔認識技術が利用されて特徴検出部15による検出が行われ、判定がなされる。その結果、被写体に顔が存在するならば、ステップS32に移行して、笑顔検出技術が利用されて正面を向いた笑顔の数が検出される。   Here, as shown in FIG. 4C, a case where “day trip” is selected as the theme will be described. In this case, there is a phrase “with the whole family” as shooting advice. Therefore, first, in step S31, whether or not a subject in the captured image has a human face is detected by the feature detection unit 15 using face recognition technology, and a determination is made. As a result, if a face exists in the subject, the process proceeds to step S32, and the number of smiles facing the front is detected by using a smile detection technique.

次に、ステップS33に於いて、検出された笑顔が、これまで「家族みんなで」という撮影アドバイスによって撮影された写真の中で最も多いか否かが判定される。ここで、撮影された写真の中で最も多い場合は、ステップS34に移行して、この画像が「家族みんなで」というアドバイス画像として記録される。そして、ステップS35にて、この時、前回「家族みんなで」というアドバイス画像として記録されていたものは、その候補から外される。その後、本サブルーチンを抜けて、図6のフローチャートのステップS7に移行する。   Next, in step S33, it is determined whether or not the number of detected smiles is the largest among the photographs that have been photographed so far by the photographing advice of “all the family”. Here, if there are the largest number of photographed photographs, the process proceeds to step S34, and this image is recorded as an advice image “with the whole family”. Then, in step S35, what was previously recorded as the advice image of “all the family” at this time is excluded from the candidates. Thereafter, the subroutine is exited and the process proceeds to step S7 in the flowchart of FIG.

一方、前記ステップS31にて、撮影画像中より人の顔が検出できなかった場合は、ステップS36に移行する。ここでは、撮影アドバイス「きれいな花」を撮影したものか否かが判定されるために、その画像中に花のパターンが存在するか否かが判定される。花のパターンは、画像中の特徴抽出技術(エッジ、輪郭、線成分の抽出、領域分割による抽出、テクスチャの抽出等の処理)が利用されるもので、特徴検出部15により抽出及び検出が行われる。   On the other hand, if a human face cannot be detected in the captured image in step S31, the process proceeds to step S36. Here, in order to determine whether or not the shooting advice “beautiful flower” has been shot, it is determined whether or not a flower pattern exists in the image. A flower pattern uses a feature extraction technique (processing such as edge, contour, line component extraction, region segmentation, texture extraction, etc.) in an image, and is extracted and detected by the feature detection unit 15. Is called.

前記ステップS36にて、花のパターンが抽出されたならば、次にステップS37に於いて、抽出された画像の特徴より、以前に「きれいな花」アドバイス画像として記録された写真と比較されて、より大きく鮮やかに写っているか否かが判定される。この判定の結果、大きく鮮やかに写っていれば、ステップS38に移行して、その写真が「きれいな花」アドバイス画像として記録される。そして、ステップS39にて、この時、前回「きれいな花」アドバイス画像として記録されていたものは、その候補から外される。その後、本サブルーチンを抜けて、図6のフローチャートのステップS7に移行する。   If a flower pattern is extracted in step S36, then in step S37, it is compared with a photograph previously recorded as a “beautiful flower” advice image based on the characteristics of the extracted image. It is determined whether the image is larger and more vivid. As a result of this determination, if the image is large and vivid, the process proceeds to step S38, and the photograph is recorded as a “beautiful flower” advice image. In step S39, the previously recorded “beautiful flower” advice image is excluded from the candidates. Thereafter, the subroutine is exited and the process proceeds to step S7 in the flowchart of FIG.

一方、ステップS37にて、抽出された画像が大きく鮮やかなものではなかった場合は、ステップS38及びS29がスキップされて、図6のフローチャートのステップS7に移行する。   On the other hand, if it is determined in step S37 that the extracted image is not large and vivid, steps S38 and S29 are skipped, and the process proceeds to step S7 in the flowchart of FIG.

また、前記ステップS36に於いて、撮影画像中より花のパターンが検出できなかった場合は、ステップS40に移行する。このステップS40では、撮影アドバイス「代表的な風景」が撮影されたものか否かが判定される。そのために、その撮影画像の圧縮データサイズが今まで「代表的な風景」というアドバイス画像として記録された写真と比較されて、より大きいか否かが判定される。尚、風景写真は色情報が複雑であるため、JPEG等、画像圧縮が行われた時、圧縮率が低いため、圧縮画像データサイズは大きくなる。   If no flower pattern is detected in the photographed image in step S36, the process proceeds to step S40. In this step S40, it is determined whether or not the shooting advice “representative landscape” has been shot. Therefore, it is determined whether or not the compressed data size of the photographed image is larger than a photograph recorded as an advice image of “representative landscape” so far. Since landscape photographs have complicated color information, when image compression such as JPEG is performed, since the compression rate is low, the compressed image data size becomes large.

前記ステップS40にて、圧縮データが大きかった場合は、ステップS41に移行して、「代表的な風景」というアドバイス画像として記録される。この時、続くステップS42にて、前回「代表的な風景」アドバイス画像として記録されていたものが、その候補から外される。その後、本サブルーチンを抜けて、図6のフローチャートのステップS7に移行する。   If the compressed data is large in step S40, the process proceeds to step S41, where an advice image “representative landscape” is recorded. At this time, in the subsequent step S42, what was previously recorded as the “representative landscape” advice image is excluded from the candidates. Thereafter, the subroutine is exited and the process proceeds to step S7 in the flowchart of FIG.

一方、前記ステップS40にて圧縮データ量が大と判定されなかった場合は、ステップS41及びS42がスキップされて、図6のフローチャートのステップS7に移行する。   On the other hand, if it is not determined in step S40 that the amount of compressed data is large, steps S41 and S42 are skipped, and the process proceeds to step S7 in the flowchart of FIG.

次に、図8のフローチャートを参照して、図6のフローチャートのステップS15に於けるサブルーチン「アドバイスと撮影時データよりコメントを合成」の詳細な動作について説明する。ここでは、撮影アドバイスと撮影時データよりフレーズを合成するための動作を説明する。   Next, with reference to the flowchart of FIG. 8, the detailed operation of the subroutine “Combine comments from advice and data at the time of shooting” in step S15 of the flowchart of FIG. 6 will be described. Here, an operation for synthesizing a phrase from shooting advice and shooting data will be described.

本サブルーチンに入ると、先ず、ステップS51にて、撮影時に取得された位置情報から取得可能な場所データが存在するか否かが判定される。場所データは、位置情報(GPSデータ)が地名や地形及び地形を意味するキーワード(山、川、海)などに変換されたキーワードを意味する。ここで、場所データが存在すれば、ステップS52に移行して、その場所を修飾するコメントが抽出される。ここで、抽出されるコメントは、例えば、「山」、「川」、「海」などである。一方、前記ステップS51にて場所データが存在しない場合は、ステップS52がスキップされる。   When this subroutine is entered, first, in step S51, it is determined whether or not there is location data that can be acquired from the position information acquired at the time of shooting. The place data means a keyword in which position information (GPS data) is converted into a place name, topography, and keywords (mountains, rivers, seas) that mean topography. If the location data exists, the process proceeds to step S52, and a comment for modifying the location is extracted. Here, the extracted comments are, for example, “mountain”, “river”, “sea”, and the like. On the other hand, if no location data exists in step S51, step S52 is skipped.

次に、ステップS53に於いて、日時データ(時刻情報)が存在するか否かが判定される。ここで、日時データが無い場合は、ステップS54に移行する。一方、日時データがあれば、ステップS57に移行して、月の情報から季節が判定される。このステップS57にて季節が判定されたならば、ステップS58に移行して、季節を修飾するコメントが抽出される。季節を修飾するコメントは、例えば、「初春」、「春分」、「春」、「初夏」、「夏至」、「夏」、「残暑」、「初秋」、「秋」、「秋分」、「冬至」、「初冬」、「冬」などである。また、前記ステップS57にて、季節が判定されない場合は、ステップS58がスキップされる。   Next, in step S53, it is determined whether date / time data (time information) exists. If there is no date / time data, the process proceeds to step S54. On the other hand, if there is date and time data, the process proceeds to step S57, and the season is determined from the month information. If the season is determined in step S57, the process proceeds to step S58 to extract a comment that modifies the season. Comments that modify the season include, for example, “early spring”, “spring equinox”, “spring”, “early summer”, “summer solstice”, “summer”, “residual heat”, “early autumn”, “autumn”, “autumn”, “ “Winter Solstice”, “Early Winter”, “Winter” and so on. If the season is not determined in step S57, step S58 is skipped.

ステップS59では、休日判定が行われる。ここで、休日であれば、ユーザが日常と異なる行動をとっていると推定されるので、ステップS60に移行して、休日を修飾するコメントが抽出される。また、祝日である場合は、祝日の種類が抽出される。ここで、抽出されるコメントは、「土曜日」、「日曜日」、「正月」、「春分の日」、「みどりの日」、「国民の休日」、「海の日」、「終戦記念日」、「秋分の日」、「敬老の日」、「勤労感謝の日」、「天皇誕生日」などである。休日修飾コメントが抽出された後は、ステップS54に移行する。   In step S59, holiday determination is performed. Here, if it is a holiday, it is presumed that the user is taking an action different from that of daily life. Therefore, the process proceeds to step S60, and a comment that modifies the holiday is extracted. If it is a holiday, the type of holiday is extracted. Here, the extracted comments are “Saturday”, “Sunday”, “New Year”, “Spring Day”, “Green Day”, “National Holiday”, “Sea Day”, “End of the War”, “ Equinox Day, Respect for the Aged Day, Work Thanks Day, Emperor's Birthday, etc. After the holiday decoration comment is extracted, the process proceeds to step S54.

ステップS54では、撮影された写真より抽出された特徴データの中の1つである、色の判定が行われる。これは、撮影された写真より画像の特徴が抽出(エッジ、輪郭、線成分の抽出、領域分割による抽出、テクスチャの抽出などの処理)される。そして、その画像を構成する中で、象徴的な色が抽出された場合は、ステップS55に移行してその色を修飾するコメントが抽出される。修飾するコメントは、「赤」、「青」、「黄」、「緑」、「白」、「黒」などである。一方、前記ステップS54にて、各撮影時データより各条件を判定できない場合は、ステップS56に移行し、修飾コメントは抽出されない。その後、本サブルーチンを抜けて、図6のフローチャートのステップS16に移行する。   In step S54, color determination, which is one of feature data extracted from the photographed photograph, is performed. In this case, image features are extracted from the photographed image (processing such as edge, contour, line component extraction, region division extraction, texture extraction, etc.). If a symbolic color is extracted in the image, the process moves to step S55 to extract a comment that modifies the color. The comments to be modified are “red”, “blue”, “yellow”, “green”, “white”, “black”, and the like. On the other hand, if it is not possible to determine each condition from each photographing data in step S54, the process proceeds to step S56, and no modification comment is extracted. Thereafter, the subroutine is exited, and the process proceeds to step S16 in the flowchart of FIG.

図9は、デジタルカメラ10の位置検出部11にて取得された位置情報を基に、地図30上にその位置を関連付けた図を示している。   FIG. 9 shows a diagram in which the position is associated on the map 30 based on the position information acquired by the position detection unit 11 of the digital camera 10.

撮影が行われる場所で、位置検出部11により位置情報が取得されたとしても、地図30上の地名や地形など、その場所を示すキーワードが検出できないこと場合がある。この場合、予め自宅31の位置情報を取得し、デジタルカメラ10内に登録しておくことにより、撮影場所32が自宅から離れていた場合に、例えば、「はるばる来た」などの修飾コメントが付与される。   Even if position information is acquired by the position detection unit 11 at a place where shooting is performed, a keyword indicating the place, such as a place name or topography on the map 30, may not be detected. In this case, by acquiring the position information of the home 31 in advance and registering it in the digital camera 10, for example, when the shooting location 32 is away from the home, a modification comment such as “I came all the way” is given. Is done.

このように、本実施形態のデジタルカメラによれば、撮影をアドバイスするキーワードと、該キーワードに従った撮影の結果得られた画像の内容から、当該キーワードを修飾したコメントを合成して画像に表示することができる。   As described above, according to the digital camera of the present embodiment, a comment that modifies the keyword is synthesized and displayed on the image from the keyword that advises shooting and the content of the image obtained as a result of shooting according to the keyword. can do.

以上、本発明の実施形態について説明したが、本発明は前述した実施形態以外にも、本発明の要旨を逸脱しない範囲で種々の変形実施が可能である。   Although the embodiments of the present invention have been described above, the present invention can be variously modified without departing from the gist of the present invention other than the above-described embodiments.

更に、前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の一実施形態であって、撮影システムが適用されたデジタルカメラ10の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital camera 10 to which an imaging system is applied according to an embodiment of the present invention. 撮影された写真にフレーズを関連付ける方法を説明するための図である。It is a figure for demonstrating the method of associating a phrase with the image | photographed photograph. ユーザに選択を促すためのテーマを示した図である。It is the figure which showed the theme for prompting a user to select. 撮影テーマとアドバイスを説明するための図である。It is a figure for demonstrating a photography theme and advice. 合成フレーズの候補の文言、表示アドバイス、撮影された写真群の関連付けについて説明するための図である。It is a figure for demonstrating the wording of the candidate of a synthetic phrase, display advice, and the correlation of the image | photographed photograph group. 本発明の一実施形態に於けるデジタルカメラ10の制御動作について説明するためのフローチャートである。4 is a flowchart for explaining a control operation of the digital camera 10 according to the embodiment of the present invention. 図6のフローチャートのステップS6に於けるサブルーチン「アドバイス画像判定処理(日帰り)の詳細な動作を説明するためフローチャートである。FIG. 7 is a flowchart for explaining a detailed operation of a subroutine “advice image determination process (day trip) in step S6 of the flowchart of FIG. 6; 図6のフローチャートのステップS15に於けるサブルーチン「アドバイスと撮影時データよりコメントを合成」の詳細な動作について説明するためのフローチャートである。FIG. 7 is a flowchart for explaining detailed operations of a subroutine “Combine a comment from advice and photographing data” in step S15 of the flowchart of FIG. 6; デジタルカメラ10の位置検出部11にて取得された位置情報を基に、地図30上にその位置を関連付けた例を示した図である。It is the figure which showed the example which linked | related the position on the map 30 based on the positional information acquired in the position detection part 11 of the digital camera 10. FIG.

符号の説明Explanation of symbols

10…デジタルカメラ、11…位置検出部、12…時刻検出部、13…通信部、14…撮影部、15…特徴検出部、16…データベース(DB)部、18…シーン抽出部、20…表示部、20a…候補表示部、21…フレーズ合成部、22…制御部。   DESCRIPTION OF SYMBOLS 10 ... Digital camera, 11 ... Position detection part, 12 ... Time detection part, 13 ... Communication part, 14 ... Imaging | photography part, 15 ... Feature detection part, 16 ... Database (DB) part, 18 ... Scene extraction part, 20 ... Display Part, 20a ... candidate display part, 21 ... phrase synthesizing part, 22 ... control part.

Claims (9)

被写体を撮影する撮影部と、
撮影者に対して次に撮影すべき被写体の候補に関する情報を抽出し出力するテーマ抽出手段と、
前記テーマ抽出手段から出力された情報に基づいて、次に撮影すべき被写体の候補に関する情報をアドバイスとして前記撮影者に告知する告知手段と、
前記撮影部で前記アドバイスに基づいて撮影された画像の特徴を検出する特徴検出手段と、
前記テーマ抽出手段の出力と関連したフレーズの候補の文言に前記特徴検出手段の出力に基づいて抽出された文言を合成してフレーズを作成し、この作成されたフレーズを、前記撮影された画像と共に前記撮影者に告知するフレーズ合成手段と、
を具備することを特徴とするカメラ。
A shooting section for shooting the subject;
Theme extracting means for extracting and outputting information on a candidate for a subject to be photographed next for the photographer;
Based on the information output from the theme extracting means, a notifying means for notifying the photographer of information on candidate subjects to be photographed next as advice,
A feature detecting means for detecting a feature of an image photographed based on the advice by the photographing unit;
The theme extraction means to create a phrase by combining the words that have been extracted based on the wording of the candidates related phrase and the output to an output of said characteristic detection means, the created phrase, the photographed image Together with phrase synthesizing means for notifying the photographer,
A camera comprising:
撮影時の位置情報を取得する位置取得部と、前記撮影時の時刻情報を取得する時刻検出部、とを更に具備し、A position acquisition unit that acquires position information at the time of shooting; and a time detection unit that acquires time information at the time of shooting,
前記テーマ抽出手段は、前記撮影時の位置情報及び時刻情報の少なくとも一方に基づいて、次に撮影すべき被写体の候補に関する情報を抽出することを特徴とする請求項1に記載のカメラ。The camera according to claim 1, wherein the theme extraction unit extracts information related to a candidate for a subject to be photographed next based on at least one of position information and time information at the time of photographing.
前記位置取得部で取得された撮影時の位置情報及び前記時刻検出部で取得された撮影時の時刻情報の少なくとも一方に基づいて特定の情報を外部機器より取得するための通信部を更に具備することを特徴とする請求項2に記載のカメラ。A communication unit is further provided for acquiring specific information from an external device based on at least one of the position information at the time of shooting acquired by the position acquisition unit and the time information at the time of shooting acquired by the time detection unit. The camera according to claim 2. 前記フレーズ合成手段は、前記位置取得部で前記位置情報が取得された場合には、前記フレーズの候補の文言に前記位置情報に基づいて抽出された文言を合成して前記フレーズを作成することを特徴とする請求項2に記載のカメラ。The phrase synthesizing unit, when the position information is acquired by the position acquisition unit, synthesizes a phrase extracted based on the position information and a phrase of the phrase candidate to create the phrase The camera according to claim 2, wherein 前記フレーズ合成手段は、前記時刻検出部で前記時刻情報が取得された場合には、前記フレーズの候補の文言に前記時刻情報に基づいて抽出された文言を合成して前記フレーズを作成することを特徴とする請求項2に記載のカメラ。When the time information is acquired by the time detection unit, the phrase synthesizing unit generates the phrase by synthesizing a phrase extracted based on the time information with a phrase of the phrase candidate. The camera according to claim 2, wherein 前記フレーズ合成手段は、前記特徴検出手段で色の情報が取得された場合には、前記フレーズの候補の文言に前記色の情報に基づいて抽出された文言を合成して前記フレーズを作成することを特徴とする請求項2に記載のカメラ。When the color information is acquired by the feature detection unit, the phrase synthesizing unit synthesizes the phrase extracted based on the color information and the phrase candidate word to create the phrase The camera according to claim 2. 前記撮影された画像が前記フレーズ合成手段で作成されたフレーズに合致した場合は、当該フレーズ及び当該画像を記録する記録手段を更に具備することを特徴とする請求項2に記載のカメラ。The camera according to claim 2, further comprising a recording unit that records the phrase and the image when the photographed image matches the phrase created by the phrase synthesizing unit. 前記フレーズを表示する表示手段を更に具備することを特徴とする請求項1に記載のカメラ。The camera according to claim 1, further comprising display means for displaying the phrase. 前記表示手段は、前記撮影された画像と共に前記フレーズを表示することを特徴とする請求項8に記載のカメラ。The camera according to claim 8, wherein the display unit displays the phrase together with the photographed image.
JP2008206062A 2008-08-08 2008-08-08 camera Expired - Fee Related JP5173666B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008206062A JP5173666B2 (en) 2008-08-08 2008-08-08 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008206062A JP5173666B2 (en) 2008-08-08 2008-08-08 camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012283265A Division JP5613223B2 (en) 2012-12-26 2012-12-26 How to display the shooting system

Publications (3)

Publication Number Publication Date
JP2010045435A JP2010045435A (en) 2010-02-25
JP2010045435A5 JP2010045435A5 (en) 2011-09-15
JP5173666B2 true JP5173666B2 (en) 2013-04-03

Family

ID=42016487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008206062A Expired - Fee Related JP5173666B2 (en) 2008-08-08 2008-08-08 camera

Country Status (1)

Country Link
JP (1) JP5173666B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2489454A (en) * 2011-03-29 2012-10-03 Sony Corp A method of annotating objects in a displayed image
JP5858754B2 (en) 2011-11-29 2016-02-10 キヤノン株式会社 Imaging apparatus, display method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240579A (en) * 2003-02-04 2004-08-26 Casio Comput Co Ltd Image server and image server control program
JP2005026752A (en) * 2003-06-30 2005-01-27 Sharp Corp Photographing guidance apparatus and photographing guidance function attached imaging apparatus
JP2006093795A (en) * 2004-09-21 2006-04-06 Casio Comput Co Ltd Moving video recorder and recording method
JP4461987B2 (en) * 2004-09-29 2010-05-12 カシオ計算機株式会社 Imaging apparatus and program
JP2007183821A (en) * 2006-01-06 2007-07-19 Seiko Epson Corp Setting of sentence related to image

Also Published As

Publication number Publication date
JP2010045435A (en) 2010-02-25

Similar Documents

Publication Publication Date Title
JP4462331B2 (en) Imaging apparatus, control method, program
US20120008011A1 (en) Digital Camera and Associated Method
US20100268729A1 (en) Multimedia synthetic data generating apparatus
US20100214442A1 (en) Image display apparatus and image display method
US20080030599A1 (en) Templates for guiding user in use of digital camera
TW201417575A (en) Autocaptioning of images
JP2010259064A (en) Display and image pickup device
KR20100003898A (en) Method of controlling image processing apparatus, image processing apparatus and image file
JP4423929B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP2007164269A (en) Retrieval device, retrieval/reproducing device, and image reproducing device
JP2006060653A (en) Image editing apparatus, method and program
JP2007266902A (en) Camera
JP2010045436A (en) Camera and photographing system
JP5173666B2 (en) camera
JP6043753B2 (en) Content reproduction system, server, portable terminal, content reproduction method, program, and recording medium
JP2005026752A (en) Photographing guidance apparatus and photographing guidance function attached imaging apparatus
JP4889554B2 (en) Camera, content creation method, and program
JP4891123B2 (en) Image display device, image display method, and program
JP5899821B2 (en) Image information processing apparatus and program
JP5613223B2 (en) How to display the shooting system
JP6274198B2 (en) Image information processing apparatus and program
CN105825534B (en) Picture processing method and device
JP2005107988A (en) Image output device, image output method, image output processing program, image delivery server and image delivery processing program
JP2007288409A (en) Imaging apparatus with image data classifying function and program
JP5295510B2 (en) Image display device, image display method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121227

R150 Certificate of patent or registration of utility model

Ref document number: 5173666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees