JP5230959B2 - Automatic document creation device and program - Google Patents

Automatic document creation device and program Download PDF

Info

Publication number
JP5230959B2
JP5230959B2 JP2007096802A JP2007096802A JP5230959B2 JP 5230959 B2 JP5230959 B2 JP 5230959B2 JP 2007096802 A JP2007096802 A JP 2007096802A JP 2007096802 A JP2007096802 A JP 2007096802A JP 5230959 B2 JP5230959 B2 JP 5230959B2
Authority
JP
Japan
Prior art keywords
image
time
document
information
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007096802A
Other languages
Japanese (ja)
Other versions
JP2008257358A (en
Inventor
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2007096802A priority Critical patent/JP5230959B2/en
Publication of JP2008257358A publication Critical patent/JP2008257358A/en
Application granted granted Critical
Publication of JP5230959B2 publication Critical patent/JP5230959B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像に関連する文書を自動的に作成する文書自動作成装置及びプログラムに関する。 The present invention relates to automatic document creation instrumentation 置及 beauty program to create a document associated with the image automatically.

近年、ホームページに比べて作成が手軽な、所謂ブログ(blog:weblogの略)が流行している。また、このようなブログを使いやすくするアイデアも色々提案されている。   In recent years, so-called blogs (blog: abbreviation of weblog), which are easier to create than homepages, have become popular. There are also various ideas that make this blog easier to use.

例えば、ブログはアップロードされたコンテンツが新しいものから順番に表示される、日記に近い体裁になっているものが多いが、こうしたブログをユーザが日々日記をつける感覚で簡単に作成できるシステムが提案されており、こうしたシステムを利用した様々なサービスも行われている。   For example, many blogs are displayed in order from the newest uploaded content, and the appearance is similar to a diary. However, a system has been proposed that allows users to easily create such a blog as if they had a daily diary. Various services using these systems are also available.

また、ブログにおいてはデジタル画像が有効利用されており、画像だけが掲載された写真集のような記事も多々あるが、一般には、画像の他にコメントを付加することが多い。とはいえ、デジタルカメラを用いて写真撮影を行い、パーソナルコンピュータ(以下、PCと記す)を用いてコメントを入力するというのはユーザにとっても面倒であり、ブログ等において、より簡単に画像付きの文書を作成することができる方法が求められている。   In addition, digital images are effectively used in blogs, and there are many articles such as photo collections in which only images are posted. In general, comments are often added in addition to images. However, it is troublesome for the user to take a picture using a digital camera and input a comment using a personal computer (hereinafter referred to as a PC). What is needed is a way to create a document.

このような画像付き文書を簡単に作成できるシステムに関する提案として、例えば特許文献1においては、入力された画像の特徴を抽出し、その特徴を、予めデータベースに登録されている形容詞に対応する特徴と比較し、その結果を用いて文書を作成し、出力することにより、入力された画像に対する評価を、形容詞を用いた感性的な文章として表現することができる。
特開2001−195579号公報
As a proposal for a system that can easily create such a document with an image, for example, in Patent Document 1, a feature of an input image is extracted, and the feature is a feature corresponding to an adjective registered in a database in advance. By comparing, creating a document using the result, and outputting it, the evaluation of the input image can be expressed as a sensuous sentence using adjectives.
JP 2001-195579 A

ここで、特許文献1の手法は、入力された画像の特徴とそれに対応した形容詞のみに基づいて文書を作成するため、その表現力は限られたものであり、ユーザが必ずしも満足できる文書が作成できるとは限らない。   Here, since the method of Patent Document 1 creates a document based only on the features of the input image and the adjectives corresponding to the feature, its expressive power is limited, and a document that the user can always satisfy is created. It is not always possible.

本発明は、上記の事情に鑑みてなされたもので、多彩な表現の画像付き文章を容易に作成することができる文書自動作成装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an automatic document creation instrumentation 置及 beauty program capable of creating an image with text various expressions easily.

上記の目的を達成するために、本発明の第1の態様の文書自動作成装置は、撮影画像に関連する文書を自動的に作成する文書自動作成装置において、前記撮影画像を示す画像データを記録する画像記録部と、少なくとも前記画像の撮影時以外の時間に発生した過去画像データと該過去画像撮影時刻及び撮影画像の撮影時に関する情報を含む情報を記録する参照情報記録部と、記参照情報記録部に記録された情報のうち、前記文書自動作成装置を利用する利用者が注意を払う画像部分を、対応する文章の修飾語に従って参照して、前記画像に関連する文書を自動的に作成する文書自動作成部とを備え、前記文書自動作成部は撮影時画像データを、前記参照記録部が保持する情報のうち、撮影時の撮影時刻と時間帯が同じでかつ類似度の高い被写体を含む過去画像データと比較して、前記利用者が注意を払う画像部分を決定し文書を自動的に作成するたことを特徴とする。 To achieve the above object, the first automatic document creating apparatus aspect of the present invention, in the automatic document creating apparatus for creating automatically the relevant documents in the captured image, records the image data representing the captured image A reference information recording unit that records information including information about past image data generated at least at a time other than the time of shooting the image, information about the past image shooting time and the time of shooting the shot image, and the reference information Of the information recorded in the recording unit, the image part to which the user using the automatic document creation device pays attention is referred to according to the modifier of the corresponding sentence, and the document related to the image is automatically created. to a document automatic creation unit, the document automatic creation unit during shooting image data, among the information the reference recording unit is held, high photographing time and and similarity time period are the same at the time of photographing the photographic Compared to previous image data including, wherein the user has to automatically create a document to determine the image portion to pay attention.

本発明によれば、多彩な表現の画像付き文章を容易に作成することができる文書自動作成装置及びプログラムを提供することができる。 According to the present invention, it is possible to provide a document automatic creation instrumentation 置及 beauty program capable of creating an image with text various expressions easily.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る文書自動作成装置を含む文書自動作成システムの構成を示す図である。図1に示す文書自動作成システムは、デジタルカメラ100と、サーバ200と、PC300及び400とを有している。デジタルカメラ100は例えばUSB等を用いてPC300にデータ通信可能に接続され、また、サーバ200、PC300、400はネットワーク500を介して互いにデータ通信可能に接続されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an automatic document creation system including an automatic document creation apparatus according to an embodiment of the present invention. The automatic document creation system shown in FIG. 1 includes a digital camera 100, a server 200, and PCs 300 and 400. For example, the digital camera 100 is connected to the PC 300 using a USB or the like so that data communication is possible. The server 200 and the PCs 300 and 400 are connected to each other via a network 500 so that data communication is possible.

図2は、図1のデジタルカメラ100の構成を示す図である。図2に示すように、デジタルカメラ100は、制御部101と、操作部102と、撮像部103と、ピント調整部104と、時計部105と、位置計測部106と、記録部107と、通信部108とを有している。   FIG. 2 is a diagram illustrating a configuration of the digital camera 100 of FIG. As shown in FIG. 2, the digital camera 100 includes a control unit 101, an operation unit 102, an imaging unit 103, a focus adjustment unit 104, a clock unit 105, a position measurement unit 106, a recording unit 107, and a communication Part 108.

制御部101は、操作部102からの操作入力を受けて図2に示す各部の動作制御を行う。例えば、撮影操作がなされた場合には、撮影によって撮像部103から得られる画像を示す画像データに対して画像処理(圧縮等)を施した後、画像処理を施した画像データに撮影日時や撮影位置等の撮影情報を付加して記録部107に記録する一連の処理を行う。   The control unit 101 receives an operation input from the operation unit 102 and performs operation control of each unit illustrated in FIG. For example, when a shooting operation is performed, image processing (compression or the like) is performed on image data indicating an image obtained from the imaging unit 103 by shooting, and then the shooting date and time or shooting is performed on the image data subjected to the image processing. A series of processing is performed in which shooting information such as position is added and recorded in the recording unit 107.

操作部102はデジタルカメラ100における撮影動作を開始させるための操作部や撮影時の撮影モードを設定するための操作部等の各種操作部から構成される。ユーザにより操作部102の何れかの操作部が操作された場合に、制御部101はその操作に応じた各種シーケンスを制御する。   The operation unit 102 includes various operation units such as an operation unit for starting a shooting operation in the digital camera 100 and an operation unit for setting a shooting mode at the time of shooting. When any operation unit of the operation unit 102 is operated by the user, the control unit 101 controls various sequences according to the operation.

撮像部103は、撮影レンズと、撮像素子と、アナログ/デジタル変換器(ADC)等から構成される。そして、図示しない被写体の像を撮影レンズによって撮像素子の受光面上に結像させ、受光面上に結像させた被写体の像を撮像素子においてアナログの画像信号に変換し、撮像素子において得られた画像信号をADCにおいてデジタルの画像信号(画像データに変換して制御部101に出力する。   The imaging unit 103 includes a photographic lens, an imaging element, an analog / digital converter (ADC), and the like. Then, an image of a subject (not shown) is formed on the light receiving surface of the image sensor by the photographing lens, and the image of the subject imaged on the light receiving surface is converted into an analog image signal by the image sensor, and obtained by the image sensor. The image signal is converted into a digital image signal (image data by the ADC and output to the control unit 101.

ピント調整部104は、撮影レンズの位置調整を行うことにより撮影レンズのピント合わせを行う。このピント合わせの手法としては、例えば、撮影レンズの位置を逐次変化させながら、撮像部104において得られる画像データより被写体のコントラストを求め、このコントラストが最大となる位置を撮影レンズのピント位置とする、山登り方式等の周知の手法を用いることができる。ここで、ピント合わせがなされたときの撮影レンズの位置から被写体距離を計測することもできる。ピント調整部104において計測される被写体距離も撮影情報として画像データに付加することができる。   The focus adjustment unit 104 adjusts the position of the photographic lens to focus the photographic lens. As a focusing method, for example, the contrast of the subject is obtained from image data obtained in the imaging unit 104 while sequentially changing the position of the photographing lens, and the position where the contrast is maximum is set as the focal position of the photographing lens. Well-known methods such as mountain climbing can be used. Here, the subject distance can also be measured from the position of the photographing lens when the focus is achieved. The subject distance measured by the focus adjustment unit 104 can also be added to the image data as shooting information.

時計部105は日時を計測する。位置計測部106は例えばGPSを利用した測位によってデジタルカメラ100の位置を計測する。撮影がなされた場合には時計部105によって計測された撮影日時情報及び位置計測部106によって計測された撮影位置情報が撮影情報の一部として画像データに付加される。また、被写体距離が計測された場合には被写体距離情報も撮影情報の一部として付加される。その他、撮影情報としては撮影時の露光条件等が付加される。   The clock unit 105 measures the date and time. The position measurement unit 106 measures the position of the digital camera 100 by positioning using, for example, GPS. When shooting is performed, shooting date / time information measured by the clock unit 105 and shooting position information measured by the position measurement unit 106 are added to the image data as part of the shooting information. Further, when the subject distance is measured, subject distance information is also added as part of the shooting information. In addition, an exposure condition at the time of shooting is added as shooting information.

記録部107は撮影時に制御部101において画像処理がなされ、各種撮影情報が付加された画像データを記録する。通信部108は、記録部107に記録された画像データ等の各種データをPC300に送信する。デジタルカメラ100にネットワーク600に接続する機能を持たせ、記録部107に記録された画像データ等のデータを、PC300を介さずにサーバ200に送信できるようにしても良い。   The recording unit 107 performs image processing in the control unit 101 during shooting and records image data to which various types of shooting information are added. The communication unit 108 transmits various data such as image data recorded in the recording unit 107 to the PC 300. The digital camera 100 may have a function of connecting to the network 600 so that data such as image data recorded in the recording unit 107 can be transmitted to the server 200 without using the PC 300.

文書自動作成装置としての機能を有するサーバ200は、制御部201と、通信部202と、記録部203とを有している。
制御部201は、所定のプログラムに従ってサーバ200の各部の動作を制御する。また、デジタルカメラ100から画像を示す画像データが送信されてきた場合には、送信されてきた画像データの内容に関する文書を自動的に作成する。
A server 200 having a function as an automatic document creation apparatus includes a control unit 201, a communication unit 202, and a recording unit 203.
The control unit 201 controls the operation of each unit of the server 200 according to a predetermined program. When image data indicating an image is transmitted from the digital camera 100, a document relating to the content of the transmitted image data is automatically created.

通信部202はPC300から送信された画像データを受信するとともに、サーバ200において自動的に作成される画像付き文書をPC400に送信する。   The communication unit 202 receives the image data transmitted from the PC 300 and transmits an image-added document automatically created in the server 200 to the PC 400.

記録部203は、画像記録部203a、参照情報記録部203b、及び文書記録部203cを有している。画像記録部203aはデジタルカメラ100から送信されてきた画像データを、撮影日時情報、撮影位置情報、撮影時の被写体距離情報等の撮影情報と関連付けて記録する。参照情報記録部203bは、制御部201による自動文章データ作成処理において用いられる各種の参照情報を記録する。この参照情報としては、例えば、画像記録部203aに記録された画像データに写っている被写体が何であるかを識別するための植物、動物、人物、風景、料理等の各種画像データや、撮影位置情報からデジタルカメラ100の所在地を特定するための地図データ等の画像の撮影時以外に取得される情報が含まれる。なお、図1においては、記録部203内に3つの記録部を持たせているが、これらはそれぞれ別の記録部で構成しても良いし、単一の記録部として構成しても良い。   The recording unit 203 includes an image recording unit 203a, a reference information recording unit 203b, and a document recording unit 203c. The image recording unit 203a records the image data transmitted from the digital camera 100 in association with shooting information such as shooting date / time information, shooting position information, and subject distance information at the time of shooting. The reference information recording unit 203b records various types of reference information used in the automatic text data creation process by the control unit 201. As this reference information, for example, various image data such as plants, animals, people, landscapes, dishes, etc. for identifying what the subject is reflected in the image data recorded in the image recording unit 203a, and the shooting position Information acquired other than at the time of taking an image such as map data for specifying the location of the digital camera 100 from the information is included. In FIG. 1, three recording units are provided in the recording unit 203, but these may be configured as separate recording units or as a single recording unit.

PC300、400は、ウェブページをブラウジングするためのソフトウェアがインストールされ、ウェブページ上で各種の操作を行うためのマウスやキーボードといった操作部や液晶ディスプレイ等の表示部を有する一般的なパーソナルコンピュータである。   The PCs 300 and 400 are general personal computers in which software for browsing a web page is installed and an operation unit such as a mouse and a keyboard for performing various operations on the web page and a display unit such as a liquid crystal display. .

以下、図1に示す文書作成システムの動作について説明する。デジタルカメラ100によって得られた画像データは、撮影日時や撮影位置等の撮影情報と関連付けられてサーバ200の画像記録部203aに記録されていく。サーバ200の制御部201は、日々記録される画像データにおける変化から、現在、ユーザがどのようなことに関心があるかを分析し、それを文章化し、作成した文章をPC300を介して送信されてきた画像と関連付けて記録する。そして、PC400からのアクセスがあれば、画像付き文書602をPC400に表示させる。この画像付き文書602はPC300から送信されてきた画像600とこの画像600から作成された文章601とから構成されている。   Hereinafter, the operation of the document creation system shown in FIG. 1 will be described. Image data obtained by the digital camera 100 is recorded in the image recording unit 203a of the server 200 in association with shooting information such as shooting date and time and shooting position. The control unit 201 of the server 200 analyzes what the user is currently interested in from the changes in the image data recorded every day, converts it into text, and sends the created text via the PC 300. Record it in association with the incoming image. If there is an access from the PC 400, the image-added document 602 is displayed on the PC 400. The image-added document 602 includes an image 600 transmitted from the PC 300 and a sentence 601 created from the image 600.

例えば、図1に示す画像データ600から文章601を作成する場合、その画像に写っている被写体が「イチョウ」であることは、参照情報記録部203bに記録されている植物の画像データとの比較によって判別することができる。また、同じような構図で撮影された複数のイチョウの木の画像がサーバ200に送信されている場合には、新たに送信されてきた画像と過去に記録されている画像との比較を行うことにより、それらの画像を同じイチョウの木の画像であると判別し、その画像に写っている被写体の変化を判別してそのことを文章として記述することが可能である。例えば、同じイチョウの木の葉の色が「黄色」に変化したことを検出することで、「イチョウ」という文章に葉の色が「黄色くなりました」という文章を付加することができる。さらに、同じイチョウの木の画像データが定期的にサーバ200に送信されてくる場合には、「いつもの」等の修飾語を付加することもできる。   For example, when the sentence 601 is created from the image data 600 shown in FIG. 1, the fact that the subject in the image is “ginkgo” is compared with the plant image data recorded in the reference information recording unit 203b. Can be determined. In addition, when a plurality of ginkgo tree images photographed with the same composition are transmitted to the server 200, the newly transmitted image is compared with an image recorded in the past. Thus, it is possible to discriminate these images as images of the same ginkgo tree, discriminate changes in the subject reflected in the images, and describe them as sentences. For example, by detecting that the leaf color of the same ginkgo tree has changed to “yellow”, it is possible to add a sentence “the color of the leaf has become yellow” to the sentence “Ginkgo”. Furthermore, when image data of the same ginkgo tree is periodically transmitted to the server 200, a modifier such as “ordinary” can be added.

また、サーバ200に送信されてくる画像から、例えば図3に示すような表形式で、撮影日時とそのときの撮影テーマ(被写体)とを管理しておき、この情報に基づいて文章作成を行うようにしても良い。このような管理をサーバ200において行っておくことで、ユーザーがどんな写真撮影の傾向を持っているか(どの時間帯の撮影が多いか、どのような画像が多いか)等を判断することが可能である。そして、こうした管理が行われているがゆえに、「いつも撮影している」とか、「この前に撮影した」とか、「珍しく夜撮影した」とかの文章化が容易になる。   Further, from the image transmitted to the server 200, the shooting date and time and the shooting theme (subject) at that time are managed in a table format as shown in FIG. 3, for example, and a sentence is created based on this information. You may do it. By performing such management in the server 200, it is possible to determine what kind of photography the user has (e.g., what time period of photography, what kind of images are many), etc. It is. And because of this management, it becomes easier to document such as “always taking pictures”, “taken before”, or “rarely taken at night”.

例えば、図3は、被写体の撮影履歴を1日単位で記録したものである。この中で最新の撮影結果である風景1と同じものは6日前に撮影されているので、例えば、「6日後に撮影」などという文章を付加することができる。さらに、風景1の画像が6日よりも短い期間で定期的に撮影され、今回だけ6日の間隔が空いていた場合には「6日ぶりに撮影」等の文章を付加することができる。これらのような工夫によって、作成される文章の単調さを防ぐこともできる。   For example, FIG. 3 shows a recording history of a subject in units of one day. Among them, the same thing as the scenery 1 which is the latest photographing result is photographed six days ago, and for example, a sentence such as “photographed six days later” can be added. Furthermore, if an image of the landscape 1 is periodically taken in a period shorter than 6 days and there is an interval of 6 days only this time, a sentence such as “taken for the first time in 6 days” can be added. By such a device, the monotonousness of the created sentence can be prevented.

なお、図3のような表を作成するに当たり、撮影者が撮影した様々なテーマの被写体が、風景、人物、ペット、料理等の何れに該当するかは、画像データに写っている被写体そのものから判別するだけでなく、例えば撮影時の被写体距離情報(風景なら近距離、ペットや料理なら近距離等)や撮影モード設定(人物ならポートレートモード等)を利用して判別することもできる。   In creating the table as shown in FIG. 3, whether the subject of various themes photographed by the photographer corresponds to a landscape, a person, a pet, a dish, or the like depends on the subject itself in the image data. In addition to the discrimination, for example, the subject distance information at the time of shooting (short distance for landscapes, short distance for pets and dishes, etc.) and shooting mode settings (portrait mode for people, etc.) can be used.

以下、図1に示す自動文書作成システムの動作についてさらに詳しく説明する。
図4は、図1に示す自動文書作成システムにおけるデジタルカメラ100の処理について示すフローチャートである。図4において、デジタルカメラ100の制御部101は、ユーザによる画像の撮影操作がなされたか否かを判定している(ステップS11)。
Hereinafter, the operation of the automatic document creation system shown in FIG. 1 will be described in more detail.
FIG. 4 is a flowchart showing processing of the digital camera 100 in the automatic document creation system shown in FIG. In FIG. 4, the control unit 101 of the digital camera 100 determines whether or not a user has performed an image capturing operation (step S11).

ステップS11の判定において、撮影操作がなされた場合に、制御部101は各部を制御して撮影動作を実行する(ステップS12)。撮影動作の終了後、制御部101は、位置計測部106によって撮影時におけるデジタルカメラ100の位置情報が取得されているか否かを判定する(ステップS13)。ステップS13の判定において、撮影時の位置情報が取得されていた場合に、制御部101は画像処理後の画像データに、撮影位置情報、撮影時刻情報、被写体距離情報、撮影モード設定情報等の撮影情報を付加して記録部107に記録する(ステップS14)。一方、撮影時の位置情報が取得されていない場合に、制御部101は画像処理後の画像データに、撮影位置情報以外の撮影情報を画像データに付加して記録部107に記録する(ステップS15)。   When a shooting operation is performed in the determination in step S11, the control unit 101 controls each unit to execute a shooting operation (step S12). After the end of the shooting operation, the control unit 101 determines whether or not the position information of the digital camera 100 at the time of shooting is acquired by the position measurement unit 106 (step S13). If the position information at the time of shooting has been acquired in the determination in step S13, the control unit 101 captures shooting position information, shooting time information, subject distance information, shooting mode setting information, and the like in the image data after image processing. Information is added and recorded in the recording unit 107 (step S14). On the other hand, when the position information at the time of shooting is not acquired, the control unit 101 adds shooting information other than the shooting position information to the image data after image processing and records the image data in the recording unit 107 (step S15). ).

また、ステップS11の判定において、撮影操作がなされていない場合、制御部101は、ユーザによる画像の再生操作がなされたか否かを判定する(ステップS16)。ステップS16の判定において、画像の再生操作がなされた場合に制御部101はユーザによって選択された画像を図示しない表示部に再生する再生動作を実行する(ステップS17)。   If it is determined in step S11 that no photographing operation has been performed, the control unit 101 determines whether or not a user has performed an image reproduction operation (step S16). If it is determined in step S16 that an image reproduction operation has been performed, the control unit 101 performs a reproduction operation for reproducing the image selected by the user on a display unit (not shown) (step S17).

また、ステップS16の判定において、再生操作がなされていない場合、制御部101は、ユーザによる画像データの送信操作がなされたか否かを判定する(ステップS18)。ステップS18の判定において、画像データの送信操作がなされた場合に制御部101は、ユーザによって選択された画像データを撮影情報とともにPC300或いはサーバ200に送信するとともに、ユーザの行動履歴情報のうちで、まだPC300或いはサーバ200に送信していないものを送信する(ステップS19)。   If it is determined in step S16 that no reproduction operation has been performed, the control unit 101 determines whether or not a user has performed an image data transmission operation (step S18). In the determination of step S18, when an image data transmission operation is performed, the control unit 101 transmits the image data selected by the user together with the shooting information to the PC 300 or the server 200, and among the user action history information, What has not yet been transmitted to the PC 300 or the server 200 is transmitted (step S19).

ここで、ユーザの行動履歴情報とは、ユーザの撮影時以外の行動を示す情報である。より具体的には、ユーザが何時、どこにいるかを逐次検出して記録部107に記録しておいた情報である。このような情報を記録部107に記録し、サーバ200に送ることで、サーバ200においてさらに多様な文章を作成することが可能となる。ユーザの行動履歴情報をサーバ200に送ることにより、例えば、画像の撮影から今まで、どこからどこに移動したかをサーバ200側で識別できるので、例えば、「○○に△時に到着して撮影」等の文章を作成することが可能である。しかしながら、撮影時以外のユーザの行動を全て送信していると膨大なデータ量になるので、ユーザが定期的に画像データの送信(サーバ200へのアップロード)をしている場合には、逐次、行動履歴情報もアップロードされているとして、未送信のデータのみを送信するようにする。例えば、前日に大阪に出張したときに画像を送信し、また別の日の別の画像を送信する場合には前日に大阪にいったことを示すデータを別の日の画像の送信時に送る必要はない。ただし、サーバ200において作成する文章については、前日の行動履歴情報を参照して、例えば、「昨日は、大阪に行きましたが、今日はいつものイチョウです」といった文章を作成するようにしても良い。   Here, the user's action history information is information indicating an action other than when the user is photographing. More specifically, it is information that is detected and recorded in the recording unit 107 by sequentially detecting when and where the user is. By recording such information in the recording unit 107 and sending it to the server 200, it becomes possible to create more various sentences in the server 200. By sending the user's action history information to the server 200, for example, the server 200 can identify where the user has moved from where the image was taken to where it was taken. It is possible to create a sentence. However, if all the actions of the user other than at the time of shooting are transmitted, the amount of data becomes large. Therefore, when the user periodically transmits image data (upload to the server 200), Assuming that action history information is also uploaded, only unsent data is transmitted. For example, if you send an image on a business trip to Osaka the previous day, and if you want to send another image for another day, you need to send data indicating that you went to Osaka the previous day when sending the image for another day. There is no. However, for the text created in the server 200, referring to the action history information of the previous day, for example, a text such as “I went to Osaka yesterday but today is the usual ginkgo” may be created. good.

画像データの送信を行った後、若しくは画像データの送信を行わなかった場合であっても、制御部101は、位置計測部106によって画像の送信時におけるデジタルカメラ100の位置情報を取得するとともに、時計部によって現在の時刻情報を取得し、これら取得した位置情報及び時刻情報をユーザの行動履歴情報として記録部107に記録する(ステップS20)。このようにして行動履歴情報を記録しておくことにより、ステップS19の画像出力時に、ユーザの行動履歴情報を画像データと一緒に送信することができ、サーバ200において図3のような表を作成することが可能である。   Even after image data is transmitted or when image data is not transmitted, the control unit 101 acquires position information of the digital camera 100 at the time of image transmission by the position measurement unit 106, and Current time information is acquired by the clock unit, and the acquired position information and time information are recorded in the recording unit 107 as user action history information (step S20). By recording the action history information in this manner, the action history information of the user can be transmitted together with the image data when the image is output in step S19, and a table as shown in FIG. Is possible.

図5は、図1に示す自動文書作成システムにおけるサーバ200の処理について示すフローチャートである。   FIG. 5 is a flowchart showing processing of the server 200 in the automatic document creation system shown in FIG.

まず、サーバ200の制御部201は、デジタルカメラ100から直接、或いはPC300から画像データを受信したか否かを判定している(ステップS21)。ステップS21の判定において、画像データが受信されると、制御部201は、受信した画像データを撮影情報とともに記録部203の画像記録部203aに記録させるとともに、画像データとともに受信されるユーザの行動履歴情報を参照情報記録部203bに記録させる(ステップS22)。   First, the control unit 201 of the server 200 determines whether image data has been received directly from the digital camera 100 or from the PC 300 (step S21). When the image data is received in the determination in step S21, the control unit 201 records the received image data in the image recording unit 203a of the recording unit 203 together with the shooting information, and the user action history received together with the image data. The information is recorded in the reference information recording unit 203b (step S22).

次に、制御部201は、画像データに撮影位置情報が付加されているか否かを判定する(ステップS23)。ステップS23の判定において、画像データに撮影位置情報が付加されている場合に、制御部201は、送信されてきた画像データと、この画像データに関連付けられた撮影日時情報及び撮影位置情報とから文章を作成する(ステップS24)。一方、ステップS23の判定において、画像データに撮影位置情報が付加されていない場合に、制御部201は、撮影位置情報を考慮せず、画像データと撮影日時情報とから文章を作成する(ステップS25)。ステップS24及びステップS25の文章作成の処理については後述する。   Next, the control unit 201 determines whether or not shooting position information is added to the image data (step S23). When the shooting position information is added to the image data in the determination of step S23, the control unit 201 writes a sentence from the transmitted image data and the shooting date / time information and shooting position information associated with the image data. Is created (step S24). On the other hand, if the shooting position information is not added to the image data in the determination of step S23, the control unit 201 creates a sentence from the image data and the shooting date / time information without considering the shooting position information (step S25). ). The sentence creation processing in steps S24 and S25 will be described later.

次に、制御部201は、ステップS24又はステップS25において作成した文章データと過去に作成して文書記録部203cに記録された文章データとを比較して、同じ文章データが所定回数以上連続して作成されているか否かを判定する(ステップS26)。ステップS26の判定において、同じ文章データが所定回数以上連続して作成されている場合に、制御部201は、ステップS24又はステップS25において作成した文章を、記録部203の参照情報記録部203bに記録されている文例集のデータを用いてアレンジする(ステップS27)。   Next, the control unit 201 compares the sentence data created in step S24 or step S25 with the sentence data created in the past and recorded in the document recording unit 203c, and the same sentence data continues for a predetermined number of times. It is determined whether it has been created (step S26). If it is determined in step S26 that the same sentence data is continuously created a predetermined number of times or more, the control unit 201 records the sentence created in step S24 or step S25 in the reference information recording unit 203b of the recording unit 203. Arrangement is performed using the data of the collected sentence examples (step S27).

例えば、同じ「青い花」に関する文章を作成する場合であっても、単に「青い花」という単語のみを用いる場合や、「青い花を見ました」、「青い花が咲いていました」、「青い花がきれいでした」等と様々なバリエーションにする。このような1つの文に対してもバリエーションを作るために、多数の文案を参照情報記録部203bに記録しておき、ここから適宜、選択して新たな文章を作成する。例えば、画像内の被写体が「青い花」である場合に、まず、「青い花」のみで文章を作成する。そして、この「青い花」のみの文章が所定回数以上連続して作成された場合には、次に、「青い花を見ました」という文章を作成する。以後も同様に、同じ文章が複数回続いた場合には別の文章を作成する。これによって、同じ被写体に対する文章であっても、同じ文章ばかり作成されることがなく、ユーザに飽きを感じさせない。   For example, even if you write a sentence about the same "blue flower", you might just use the word "blue flower", "I saw a blue flower", "I had a blue flower", Various variations such as “blue flowers were beautiful”. In order to make a variation even for such a sentence, a large number of sentence plans are recorded in the reference information recording unit 203b, and a new sentence is created by appropriately selecting them. For example, when the subject in the image is a “blue flower”, a sentence is first created using only the “blue flower”. Then, when the sentence of only “blue flowers” is created continuously a predetermined number of times or more, a sentence “I saw a blue flower” is created next. Similarly, if the same sentence continues multiple times, another sentence is created. As a result, even for sentences on the same subject, only the same sentence is not created, and the user is not bored.

ステップS26又はステップS27の後、制御部201は、作成された文章データを画像記録部203aに記録された画像データと関連付けて文書記録部203cに記録させる(ステップS28)。これにより画像付き文書が作成される。その後に図5の処理を終了する。   After step S26 or step S27, the control unit 201 records the created text data in the document recording unit 203c in association with the image data recorded in the image recording unit 203a (step S28). As a result, an image-added document is created. Thereafter, the processing of FIG.

さらに、サーバ200には、自動的に作成された文章を記録するだけでなく、ユーザが自身で作成した文章を記録することもできる。このために、ステップS21において、画像データが受信されていない場合に、制御部201は、日記等の記事(ここでは特に画像付きの記事)を受信した否かを判定する(ステップS29)。そして、ステップS29の判定において、記事が受信されると、制御部201は、受信した記事の文章データと画像データとを文書記録部203c、画像記録部203aにそれぞれ記録させる。そして、図5の処理を終了する。ユーザ自身によって作成された文章は、サーバ200において自動的に作成された文章よりもさらに詳細な情報を含むことがある。例えば、撮影位置情報だけでは、「どこそこのイチョウです」という文章は作成できても、「懐かしいイチョウです」とか、「想い出のイチョウです」等といった文章を作成することはできず、これらのような表現は、後で、同様の画像データが送られてきた時に引用するようにしてもよい。例えば、類似画像検索の機能を利用し、同様の画像が送られて来るとき、「また、懐かしいイチョウの写真を撮りました」等といった文章を作成することが可能となる。   Further, the server 200 can record not only automatically created sentences but also sentences created by the user himself / herself. For this reason, when image data is not received in step S21, the control unit 201 determines whether or not an article such as a diary (here, an article with an image in particular here) has been received (step S29). In step S29, when an article is received, the control unit 201 causes the document recording unit 203c and the image recording unit 203a to record the text data and image data of the received article. Then, the process of FIG. 5 ends. The sentence created by the user himself may include more detailed information than the sentence automatically created in the server 200. For example, even with the shooting position information alone, you can create a sentence such as “Ginkgo biloba where”, but you cannot create a sentence such as “Nostalgic ginkgo” or “It is a memorable ginkgo”. Such expressions may be quoted later when similar image data is sent. For example, when a similar image is sent using a similar image search function, it is possible to create a sentence such as “I took a picture of a nostalgic ginkgo”.

また、ステップS29の判定において、記事が受信されていない場合に、制御部201は、ユーザによる画像の再生指示がなされたか否かを判定する(ステップS30)。ステップS30の判定において、ユーザによる画像の再生指示がなされた場合には、ユーザによって選択された画像とこの画像に関連付けられた文章とをPC400のディスプレイ上に表示させる(ステップS31)。その後、図5の処理を終了する。   If no article has been received in the determination in step S29, the control unit 201 determines whether an instruction to reproduce the image has been given by the user (step S30). If it is determined in step S30 that the user gives an instruction to reproduce an image, the image selected by the user and the text associated with the image are displayed on the display of the PC 400 (step S31). Thereafter, the process of FIG.

図6は、図5のステップS24の処理の詳細について示すフローチャートである。まず、制御部201は、参照情報記録部203bから、ユーザの行動履歴情報を読み出す(ステップS41)。このような記録から、画像の位置づけ(その画像がどこからどこに行く途中の撮影で得られたものか、いつも通っているところでの撮影で得られたものか、たまに来た場所での撮影で得られたものか等)を判断することができる。この判断を行うために、制御部201は、送信されてきた画像データの撮影日時情報Aを検出する(ステップS42)。さらに、制御部201は、送信されてきた画像データの撮影位置情報を検出する(ステップS43)。そして、制御部201は、撮影位置情報とステップS41において読み出した行動履歴情報とを比較し、送信されてきた画像データが長距離の移動をした後の撮影によって得られたものであるか否かを判定する(ステップS44)。これは送信されてきた画像の撮影位置情報とこの画像の撮影日時の前の時点の位置情報(行動履歴情報から取得)との差が所定距離よりも大きいか否かによって判定することができる。   FIG. 6 is a flowchart showing details of the process in step S24 of FIG. First, the control unit 201 reads user action history information from the reference information recording unit 203b (step S41). From such a record, the positioning of the image (whether the image was obtained on the way to where it was taken, whether it was obtained by shooting where it always goes, or obtained at the place where I came from time to time) Can be determined). In order to make this determination, the control unit 201 detects the shooting date / time information A of the transmitted image data (step S42). Further, the control unit 201 detects shooting position information of the transmitted image data (step S43). Then, the control unit 201 compares the shooting position information with the action history information read in step S41, and determines whether or not the transmitted image data is obtained by shooting after a long distance movement. Is determined (step S44). This can be determined based on whether or not the difference between the shooting position information of the transmitted image and the position information (obtained from the action history information) at the time before the shooting date and time of this image is greater than a predetermined distance.

ステップS44の判定において、画像が長距離の移動した後の撮影によって得られたものである場合には、特別な場所での撮影がなされたと判定する。そこで、制御部201は、画像の撮影位置を参照情報記録部203bに記録されている地図データと照合して、画像の撮影位置に対応する地名Bを判別する(ステップS45)。次に、制御部201は、撮影時間情報と移動開始時間の差から移動時間Cを計算し(ステップS46)、この移動時間Cを織り込む形で地名Bを表記するような文章(図6参照)を作成する(ステップS47)。その後に、図6の処理を終了する。ここで、図6のステップS47の例では移動時間を文章中に含めるようにしているが、移動距離そのものを含めるようにしてもよい。   If it is determined in step S44 that the image is obtained by shooting after moving a long distance, it is determined that shooting has been performed at a special place. Therefore, the control unit 201 collates the image capturing position with the map data recorded in the reference information recording unit 203b, and determines the place name B corresponding to the image capturing position (step S45). Next, the control unit 201 calculates a travel time C from the difference between the shooting time information and the travel start time (step S46), and a sentence that describes the place name B in a form that incorporates the travel time C (see FIG. 6). Is created (step S47). Thereafter, the process of FIG. 6 is terminated. Here, in the example of step S47 in FIG. 6, the travel time is included in the text, but the travel distance itself may be included.

また、ステップS44の判定において、移動距離が小さい場合にはユーザの生活圏での撮影であるから、地名はどうでもよく、むしろ、画像に写っている被写体や撮影時間の方が重要であると判定する。この場合、制御部201は、画像内の被写体Dを判別する(ステップS48)。この判別は、例えば、画像内の被写体を参照情報記録部203bに記録されている被写体種別用の画像と照合することにより行うことができる。   In the determination in step S44, if the moving distance is small, the shooting is performed in the user's sphere of life. Therefore, the place name is not important. Rather, the subject in the image and the shooting time are more important. judge. In this case, the control unit 201 determines the subject D in the image (step S48). This determination can be performed, for example, by collating the subject in the image with the subject type image recorded in the reference information recording unit 203b.

被写体Dを判別した後、制御部201は、送信されてきた画像データと同じ時間帯に撮影された画像データが画像記録部203aに記録されているか否かを判定する(ステップS49)。ステップS49の判定において、送信されてきた画像データと同じ時間帯に撮影された画像データが画像記録部203aに記録されている場合に、制御部201は、送信されてきた画像データと、この送信されてきた画像データと同じ時間帯に撮影された画像データとの比較を行って、被写体の形状、構図等の画像の特徴が類似する画像データを検索する(ステップS50)。ステップS50における画像比較は、例えば、比較する画像同士の輪郭成分を抽出し、該抽出した輪郭成分同士のマッチングによって行うことができる。マッチングの際には、比較する画像における被写体の形状の同一性にある程度の許容範囲を設けるようにして多少の構図の違い等は許容できるようにすることが望ましい。   After determining the subject D, the control unit 201 determines whether or not image data shot in the same time zone as the transmitted image data is recorded in the image recording unit 203a (step S49). When it is determined in step S49 that image data shot in the same time zone as the transmitted image data is recorded in the image recording unit 203a, the control unit 201 transmits the transmitted image data and the transmitted image data. Comparison is made between the image data thus obtained and image data taken in the same time period, and image data having similar image features such as the shape and composition of the subject is searched (step S50). The image comparison in step S50 can be performed by, for example, extracting contour components between images to be compared and matching the extracted contour components. In matching, it is desirable to allow a slight difference in composition by providing a certain allowable range for the identity of the shape of the subject in the images to be compared.

ステップS50の類似画像データの検索の後、制御部201は、送信されてきた画像データと同じテーマ(即ち、形状、構図等の類似度の高い被写体)の画像データがあったか否かを判定する(ステップS51)。ステップS51の判定において、同じテーマの画像データがあった場合に、制御部201は、前回の撮影日Eの画像と比較する旨の文章を作成する(ステップS52)。このような文章を作成することによって、ユーザも忘れていたような期日までをユーザに呈示して比較を促すことができる。なお、比較を促す文章ではなく、色の変化等を検出してそれを文章化するようにしても良い。   After searching for similar image data in step S50, the control unit 201 determines whether there is image data of the same theme as the transmitted image data (that is, a subject having a high degree of similarity such as shape and composition) (step S50). Step S51). If it is determined in step S51 that there is image data of the same theme, the control unit 201 creates a sentence to be compared with the image of the previous shooting date E (step S52). By creating such a sentence, it is possible to present the user up to a date that the user has forgotten and to promote comparison. Note that, instead of a sentence that prompts comparison, a change in color or the like may be detected and converted into a sentence.

また、ステップS51の判定において、同じテーマの画像がない場合に、制御部201は、送信されてきた画像データにおける被写体の色Fを検出する(ステップS53)。その後、制御部201は、被写体の色が鮮やかな色、即ち色の彩度が高いか否かを判定する(ステップS54)。ステップS54の判定において、被写体の色の特徴が判定できた場合に、制御部201は、被写体の特徴として、色が鮮やかであった旨を文章として作成する(ステップS55)。一方、ステップS55の判定において、色に特徴がなければ、制御部201は、撮影した被写体と撮影日時だけを文章として作成する(ステップS56)。   If there is no image of the same theme in the determination in step S51, the control unit 201 detects the color F of the subject in the transmitted image data (step S53). Thereafter, the control unit 201 determines whether or not the subject color is vivid, that is, whether the color saturation is high (step S54). If it is determined in step S54 that the color feature of the subject has been determined, the control unit 201 creates a text indicating that the color is vivid as the subject feature (step S55). On the other hand, if it is determined in step S55 that there is no feature in the color, the control unit 201 creates only the photographed subject and the photographing date and time as text (step S56).

図7は、図5のステップS25の処理の詳細について示すフローチャートである。まず、制御部201は、送信されてきた画像データの撮影日時情報Gを検出する(ステップS61)。次に、制御部201は、画像内の被写体Hを判別する(ステップS62)。被写体Hを判別した後、制御部201は、送信されてきた画像データと被写体の形状、構図等の画像の特徴が類似する画像データを画像記録部203aから検索する(ステップS63)。   FIG. 7 is a flowchart showing details of the process in step S25 of FIG. First, the control unit 201 detects the shooting date / time information G of the transmitted image data (step S61). Next, the control unit 201 determines the subject H in the image (step S62). After determining the subject H, the control unit 201 searches the image recording unit 203a for image data having similar image characteristics such as the transmitted image data and the shape and composition of the subject (step S63).

ステップS63の類似画像データの検索の後、制御部201は、被写体の形状、構図等の類似度の高い画像データがあったか否かを判定する(ステップS64)。ステップS64の判定において、類似度の高い画像データがない場合に、制御部201は、制御部201は、撮影した被写体と撮影日時だけを文章として作成する(ステップS71)。   After searching for similar image data in step S63, the control unit 201 determines whether there is image data with a high degree of similarity such as the shape and composition of the subject (step S64). If it is determined in step S64 that there is no image data with high similarity, the control unit 201 creates only the photographed subject and the shooting date and time as text (step S71).

一方、ステップS64の判定において、類似度の高い画像データがあった場合に、制御部201は、類似度の高い画像データのうち、最近に取得された画像データの撮影日時情報Iを、例えば図3の表を参照して検出する(ステップS65)。次に、制御部201は、撮影日時情報Gと撮影日時情報Iとの日時差Jを算出する(ステップS66)。   On the other hand, if it is determined in step S64 that there is image data with a high degree of similarity, the control unit 201 displays the shooting date / time information I of the image data recently acquired from the image data with a high degree of similarity. Detection is performed with reference to the table 3 (step S65). Next, the control unit 201 calculates a date / time difference J between the shooting date / time information G and the shooting date / time information I (step S66).

次に、制御部201は、今回送信されてきた画像データと、類似度が高い前回の画像データとの間に色差等の画像の差があるか否かを判定する(ステップS67)。これは、例えば両画像データの画素値の比較によって行う。ステップS67の判定において、画像の差がある場合に、制御部201は、画像の差が色の差であるか否かを判定する(ステップS68)。ステップS68の判定において、画像の差が色の差である場合に、制御部201は、今回送信されてきた画像データの色Kを検出する(ステップS69)。そして、制御部201は、図7に示すような被写体Hの色変化を示す文章を作成する(ステップS70)。   Next, the control unit 201 determines whether there is an image difference such as a color difference between the image data transmitted this time and the previous image data having a high degree of similarity (step S67). This is performed, for example, by comparing pixel values of both image data. If it is determined in step S67 that there is an image difference, the control unit 201 determines whether the image difference is a color difference (step S68). If it is determined in step S68 that the image difference is a color difference, the control unit 201 detects the color K of the image data transmitted this time (step S69). And the control part 201 produces the text which shows the color change of the to-be-photographed object H as shown in FIG. 7 (step S70).

一方、ステップS67の判定において画像の差がない場合、若しくはステップS68の判定において画像の差が色の差でない場合に、制御部201は、図7に示すような見る人の目にまかせるような文章を作成する(ステップS72)。   On the other hand, if there is no image difference in the determination in step S67, or if the image difference is not a color difference in the determination in step S68, the control unit 201 covers the eyes of the viewer as shown in FIG. A sentence is created (step S72).

以上説明したように、本実施形態によれば、ユーザは画像をアップロードするだけで、その画像の補足的な説明についての文章を作成することができる。これにより、文章を書くのが面倒な人でも、画像をアップロードするだけで、その人らしい画像付き文書を作成して、読む人にわかりやすい記事にすることが可能となる。   As described above, according to the present embodiment, a user can create a sentence about a supplementary description of an image simply by uploading the image. As a result, even if it is troublesome to write a sentence, it is possible to create an article with an image like a person just by uploading an image, and make it an article easy for a reader to read.

[変形例]
ここで、上述した実施形態の変形例について説明する。上述した実施形態においては、画像の撮影位置、撮影日時、特徴等を検出してそれらを組み合わせて文章を作成しているが、すべての文章をサーバ200において作成させる必要はない。つまり、最初のうちはユーザによって作成される文章の傾向をサーバ200において学習させ、この学習結果に基づいて文章を作成させるようなシステムに変形させてもよい。
[Modification]
Here, a modified example of the above-described embodiment will be described. In the embodiment described above, the shooting position, shooting date and time, features, and the like of an image are detected and combined to create a sentence. However, it is not necessary for the server 200 to create all sentences. That is, at first, the tendency of a sentence created by the user may be learned in the server 200, and the system may be modified to create a sentence based on the learning result.

図8は、変形例における文章作成処理について示したフローチャートである。図8において、サーバ200の制御部201は、ユーザによって記事の作成モードか選択されたか否かを判定している(ステップS101)。ステップS101の判定において、記事の作成モードが選択されている場合に、制御部201は、ユーザが記事作成の際に選択しやすい画像の傾向を学習しているか否かを判定する(ステップS102)。   FIG. 8 is a flowchart showing the sentence creation process in the modification. In FIG. 8, the control unit 201 of the server 200 determines whether or not an article creation mode has been selected by the user (step S101). When the article creation mode is selected in the determination in step S101, the control unit 201 determines whether or not the user has learned a tendency of an image that can be easily selected when creating an article (step S102). .

ステップS102の判定において、ユーザの選択しやすい画像の傾向を学習していない場合に、制御部201は、ユーザによる文章の入力(ステップS103)、及び画像の入力(ステップS104)を待つ。ユーザによって文章及び画像が入力された場合に、制御部201は、ステップS103において入力された文章とステップS104において入力された画像とを関連付けて文書記録部203c、画像記録部203aにそれぞれ記録させる(ステップS105)。   If it is determined in step S102 that the tendency of an image that can be easily selected by the user has not been learned, the control unit 201 waits for input of text (step S103) and input of an image (step S104) by the user. When a sentence and an image are input by the user, the control unit 201 associates the sentence input in step S103 with the image input in step S104 and causes the document recording unit 203c and the image recording unit 203a to record them in association ( Step S105).

また、ステップS101の判定において、記事の作成モードでない場合に、制御部201は、記事が所定数以上作成されているか否かを判定する(ステップS106)。ステップS106の判定において、記事が所定数以上作成されていない場合には、図8の処理を終了する。   If it is determined in step S101 that the article creation mode is not set, the control unit 201 determines whether or not a predetermined number of articles have been created (step S106). If it is determined in step S106 that a predetermined number or more articles have not been created, the processing in FIG. 8 is terminated.

一方、記事がたくさん作成されると、ステップS106の判定をNoに分岐する。この場合、制御部201は、ユーザによって作成された記事における画像と対応する文章を判定する(ステップS107)。これは、例えば、参照情報記録部203bに記録されている参照情報によって画像内の被写体を判定し、判定した被写体に対応する文章部分を判定することにより行うことができる。その後、ステップS107の結果から、制御部201は、文章に対する画像の選択傾向を学習する(ステップS108)。例えば、服の色に対して興味のあるユーザなら、服の写った画像と服の色に関する文章とがセットになっていることを学習させる。   On the other hand, if many articles are created, the determination in step S106 branches to No. In this case, the control unit 201 determines a sentence corresponding to the image in the article created by the user (step S107). This can be performed, for example, by determining a subject in the image based on the reference information recorded in the reference information recording unit 203b and determining a sentence portion corresponding to the determined subject. Thereafter, from the result of step S107, the control unit 201 learns the image selection tendency for the sentence (step S108). For example, if a user is interested in clothes color, he / she learns that an image showing clothes and a sentence about clothes colors are a set.

これは、図9のような状態である。図9に示す記事のうち、「寝不足」とか「出かける」は、画像に直接的に関係しない部分なので学習の対象とはしない。これに対し、「色」や「形状」、「きれい」、「かわいい」等といった画像に付されやすい修飾語などをもとに、ユーザがいかなる画像部分に注意を払いがちかを判断する。   This is the state shown in FIG. Of the articles shown in FIG. 9, “insufficient to sleep” and “going out” are not directly related to the image, and are not subject to learning. On the other hand, based on modifiers that are easily attached to images such as “color”, “shape”, “beautiful”, “cute”, and the like, it is determined what image portion the user tends to pay attention to.

また、ステップS102の判定において、ユーザの選択しやすい画像の傾向を学習した場合に、制御部201は、ユーザによる画像の入力のみを待つ(ステップS110)。ユーザによって画像が入力された場合に、制御部201はユーザによって入力された画像と形状や構図等が類似する画像を画像記録部203aから検索し、この検索した画像に対応する文章部分を抽出する(ステップS111)。そして、抽出した文章部分を引用して新たな文章を作成する(ステップS112)。その後は、新たに作成した文章とユーザによって入力された画像とを関連付けして文書記録部203c、画像記録部203aにそれぞれ記録させる。   In the determination of step S102, when learning the tendency of an image that can be easily selected by the user, the control unit 201 waits only for an image input by the user (step S110). When an image is input by the user, the control unit 201 searches the image recording unit 203a for an image similar in shape and composition to the image input by the user, and extracts a sentence portion corresponding to the searched image. (Step S111). Then, a new sentence is created by quoting the extracted sentence part (step S112). Thereafter, the newly created text and the image input by the user are associated with each other and recorded in the document recording unit 203c and the image recording unit 203a, respectively.

ここで、ステップS111における処理の際に、ユーザによって入力された画像と検索した類似画像との間で被写体の色等に差異がある場合にはその部分は変更する必要がある。例えば、ユーザによって以前作成された文章に、図9のように、「水色の服」などと服の色に触れた文章が存在し、この文章に関連付けられた画像と同じ人の顔が写った画像が入力された場合には、その服の色の特徴を画像から抽出し、「今日の服の色は黄色だ」という風に、ユーザの興味があるような内容にアレンジした文章を作成する。この作成の仕方は、その人の作成した文章を真似して、単語のみ入れ替えて文体を模倣してもよいし、文例をいくつか用意しておき、その中から適当なものを選択するようにしてもよい。また、同じような文章が毎日続くと飽きてしまうので、前の日とテーマが同じでも、文章は変えるような工夫をしてもよい。それは、いくつかの文例のうち、違うものを選択するようにすれば良い。   Here, if there is a difference in the color or the like of the subject between the image input by the user and the searched similar image during the processing in step S111, that portion needs to be changed. For example, in a sentence previously created by a user, there is a sentence touching the color of clothes such as “light blue clothes” as shown in FIG. 9, and the face of the same person as the image associated with this sentence is shown. When an image is input, the color feature of the clothes is extracted from the image, and a sentence that is arranged to the contents that the user is interested in is created, such as “Today's clothes color is yellow”. . This method can be created by imitating the text created by the person, imitating the style by replacing only the words, or preparing several example sentences and selecting an appropriate one from them. May be. Moreover, since the same sentence will get tired every day, even if the theme is the same as the previous day, you may devise it to change the sentence. It is only necessary to select a different one of several sentence examples.

以上説明したような変形例によって、ユーザ毎のライフスタイルや価値観を反映させた文章を作成することができる。   With the modification described above, it is possible to create a sentence reflecting the lifestyle and values of each user.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上述した実施形態では、デジタルカメラ100から送信された画像データや行動履歴情報等をもとにサーバ200において文章を自動的に作成する例について説明しているが、サーバ200の制御部201や参照情報記録部203bの機能をデジタルカメラ100に持たせることにより、デジタルカメラ100内部において文章を自動的に作成できるようにしてもよい。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, in the above-described embodiment, an example in which a sentence is automatically created in the server 200 based on image data, action history information, and the like transmitted from the digital camera 100 has been described. Alternatively, by providing the digital camera 100 with the function of the reference information recording unit 203b, a sentence may be automatically created in the digital camera 100.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

本発明の一実施形態に係る文書自動作成装置を含む文書自動作成システムの構成を示す図である。1 is a diagram showing a configuration of an automatic document creation system including an automatic document creation device according to an embodiment of the present invention. 図1のデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera of FIG. 撮影日時と撮影テーマとを管理するための表の一例を示す図である。It is a figure which shows an example of the table | surface for managing imaging | photography date and a photography theme. 図1に示す自動文書作成システムにおけるデジタルカメラの処理について示すフローチャートである。It is a flowchart shown about the process of the digital camera in the automatic document creation system shown in FIG. 図1に示す自動文書作成システムにおけるサーバの処理について示すフローチャートである。It is a flowchart shown about the process of the server in the automatic document production system shown in FIG. 図5のステップS24の処理の詳細について示すフローチャートである。FIG. 6 is a flowchart illustrating details of a process in step S <b> 24 of FIG. 5. 図5のステップS25の処理の詳細について示すフローチャートである。FIG. 6 is a flowchart showing details of the process in step S25 of FIG. 5. FIG. 変形例における文章作成処理について示したフローチャートである。It is the flowchart shown about the text creation process in a modification. 選択画像傾向の学習について説明するための図である。It is a figure for demonstrating learning of a selection image tendency.

符号の説明Explanation of symbols

100…デジタルカメラ、101…制御部、102…操作部、103…撮像部、104…ピント調整部、105…時計部、106…位置計測部、107…記録部、108…通信部、200…サーバ、201…制御部、202…通信部、203…記録部、203a…画像記録部、203b…参照情報記録部、203c…文書記録部、300,400…パーソナルコンピュータ(PC)、500…ネットワーク   DESCRIPTION OF SYMBOLS 100 ... Digital camera 101 ... Control part 102 ... Operation part 103 ... Imaging part 104 ... Focus adjustment part 105 ... Clock part 106 ... Position measurement part 107 ... Recording part 108 ... Communication part 200 ... Server , 201 ... control unit, 202 ... communication unit, 203 ... recording unit, 203a ... image recording unit, 203b ... reference information recording unit, 203c ... document recording unit, 300, 400 ... personal computer (PC), 500 ... network

Claims (4)

撮影画像に関連する文書を自動的に作成する文書自動作成装置において、前記撮影画像を示す画像データを記録する画像記録部と、少なくとも前記画像の撮影時以外の時間に発生した過去画像データと該過去画像撮影時刻及び撮影画像の撮影時に関する情報を含む情報を記録する参照情報記録部と、前記参照情報記録部に記録された情報のうち、前記文書自動作成装置を利用する利用者が注意を払う画像部分を参照して、前記画像に関連する文書を自動的に作成する文書自動作成部と、
を備え、前記文書自動作成部は撮影時画像データを、前記参照記録部が保持する情報のうち、撮影時の撮影時刻と時間帯が同じでかつ類似度の高い被写体を含む過去画像データと比較して、前記利用者が注意を払う画像部分を決定し文書を自動的に作成することを特徴とする文書自動作成装置。

In an automatic document creation apparatus that automatically creates a document related to a captured image, an image recording unit that records image data indicating the captured image, at least past image data generated at a time other than when the image is captured, and the image data Of the information recorded in the reference information recording unit, the reference information recording unit that records information including information relating to the past image shooting time and the shooting time of the shot image, the user who uses the automatic document creation device is careful. A document automatic creation unit that automatically creates a document related to the image with reference to the image portion to be paid;
The automatic document creation unit compares the image data at the time of photographing with the past image data including a subject having the same time and the same time zone as the time of photographing among the information held by the reference recording unit. Then, an automatic document creation apparatus characterized in that an image part to which the user pays attention is determined and a document is automatically created.

前記画像の撮影時に関する情報は、前記画像の撮影時における撮影者のいた位置と時間の情報を含むことを特徴とする請求項に記載の文書自動作成装置。 Information about the time of shooting of the image, automatic document creation apparatus according to claim 1, characterized in that it comprises a position and time information had the photographer at the time of shooting of the image. 前記文書自動作成部は、前記画像の撮影時以外の時間に撮影された画像及び前記撮影時に関する情報を基に、前記画像が、前記撮影者が長距離移動した後に撮影されたものであると判定されたときは、移動時間又は移動距離に関する文書を作成することを特徴とする請求項に記載の文書自動作成装置。 The document automatic creation unit, based on an image taken at a time other than the time of shooting the image and information on the time of shooting, the image was taken after the photographer moved a long distance The document automatic creation apparatus according to claim 1 , wherein when it is determined, a document relating to a movement time or a movement distance is created. 前記文書自動作成部は、前記参照情報記録部に記録された情報を参照して、人為的に作成された文書の特徴と前記画像との対応関係を学習により取得し、その学習により取得した情報に基づいて文書を自動的に作成することを特徴とする請求項1に記載の文書自動作成装置。   The automatic document creation unit refers to the information recorded in the reference information recording unit, obtains the correspondence between the characteristics of the artificially created document and the image by learning, and the information obtained by the learning The document automatic creation apparatus according to claim 1, wherein the document is automatically created based on the document.
JP2007096802A 2007-04-02 2007-04-02 Automatic document creation device and program Expired - Fee Related JP5230959B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007096802A JP5230959B2 (en) 2007-04-02 2007-04-02 Automatic document creation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007096802A JP5230959B2 (en) 2007-04-02 2007-04-02 Automatic document creation device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013034672A Division JP5478747B2 (en) 2013-02-25 2013-02-25 Automatic document creation device

Publications (2)

Publication Number Publication Date
JP2008257358A JP2008257358A (en) 2008-10-23
JP5230959B2 true JP5230959B2 (en) 2013-07-10

Family

ID=39980891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007096802A Expired - Fee Related JP5230959B2 (en) 2007-04-02 2007-04-02 Automatic document creation device and program

Country Status (1)

Country Link
JP (1) JP5230959B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5423052B2 (en) * 2009-02-27 2014-02-19 株式会社ニコン Image processing apparatus, imaging apparatus, and program
KR101062929B1 (en) * 2011-01-04 2011-09-07 (주)올라웍스 Method, terminal, and computer-readable recording medium for supporting collection of object included in the image which is taken
JP5915053B2 (en) * 2011-09-22 2016-05-11 カシオ計算機株式会社 Information generating apparatus, information generating method and program
JP5914279B2 (en) * 2012-09-25 2016-05-11 株式会社ゼンリンデータコム Picture diary creation support apparatus, picture diary creation support method, and computer program
JP6166070B2 (en) * 2013-03-15 2017-07-19 オリンパス株式会社 Playback apparatus and playback method
JP6354140B2 (en) * 2013-11-29 2018-07-11 株式会社ニコン TEXT GENERATION DEVICE, ELECTRONIC DEVICE, TEXT GENERATION METHOD, AND PROGRAM
JP2018190430A (en) * 2018-06-14 2018-11-29 株式会社ニコン Text generation device, electronic apparatus, and program
JP6883370B1 (en) * 2020-09-25 2021-06-09 株式会社ライフクエスト Diary generator, diary generator, diary generator, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149909A (en) * 2000-11-10 2002-05-24 Tomy Co Ltd Infant management system, monitoring device, and management server
JP2002215611A (en) * 2001-01-16 2002-08-02 Matsushita Electric Ind Co Ltd Diary making support device
JP2003339012A (en) * 2002-05-21 2003-11-28 Canon Inc Information processing apparatus, information processing system, information reproducing method, storage medium, and program
JP4123841B2 (en) * 2002-06-24 2008-07-23 ソニー株式会社 Service providing system, information processing apparatus and method, recording medium, and program
JP2004104426A (en) * 2002-09-09 2004-04-02 Fuji Photo Film Co Ltd Imaging apparatus
JP2004227284A (en) * 2003-01-23 2004-08-12 Sony Corp Information providing system, information providing method, and computer program
JP2006238190A (en) * 2005-02-25 2006-09-07 Fuji Photo Film Co Ltd Method and device for creating electronic album
JP2006301884A (en) * 2005-04-19 2006-11-02 Sony Ericsson Mobilecommunications Japan Inc Portable communication apparatus

Also Published As

Publication number Publication date
JP2008257358A (en) 2008-10-23

Similar Documents

Publication Publication Date Title
JP5230959B2 (en) Automatic document creation device and program
US9282250B2 (en) Photography apparatus, control method, program, and information processing device
US6629104B1 (en) Method for adding personalized metadata to a collection of digital images
US7127164B1 (en) Method for rating images to facilitate image retrieval
US7929809B2 (en) Method for assembling a collection of digital images
CN101584001B (en) Automated production of multiple output products
US8558918B2 (en) Method to control image processing apparatus, image processing apparatus, and image file
WO2010047336A1 (en) Image photographing system and image photographing method
KR20090094826A (en) Automated production of multiple output products
KR20070108195A (en) Dynamic photo collage
KR20090091311A (en) Storyshare automation
JP5096863B2 (en) Search device
WO2014050956A1 (en) Photography device, photography system, photography method, and photography control program
JP5478747B2 (en) Automatic document creation device
CN100476804C (en) Data retrieval method and apparatus
JP5047592B2 (en) Sentence publishing device with image, program, and method
JP2006285847A (en) Image retrieval system and program
JP2020194472A (en) Server, display method, creation method, and program
JP5064082B2 (en) Image display device
JP2006252025A (en) Image management device, image management method and image management program
KR102455684B1 (en) Studio reservation application system
Andrews et al. Raw workflow from capture to archives: a complete digital photographer's guide to raw imaging
JP2013030179A (en) Image storage and retrieval system
JP2004240579A (en) Image server and image server control program
JP5078723B2 (en) Image group reproduction device, image group reproduction method, and image group reproduction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121130

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20121207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5230959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees