JP2008271239A - Camera, content creation method, and program - Google Patents

Camera, content creation method, and program Download PDF

Info

Publication number
JP2008271239A
JP2008271239A JP2007112132A JP2007112132A JP2008271239A JP 2008271239 A JP2008271239 A JP 2008271239A JP 2007112132 A JP2007112132 A JP 2007112132A JP 2007112132 A JP2007112132 A JP 2007112132A JP 2008271239 A JP2008271239 A JP 2008271239A
Authority
JP
Japan
Prior art keywords
image
sentence
text
title
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007112132A
Other languages
Japanese (ja)
Other versions
JP2008271239A5 (en
JP4889554B2 (en
Inventor
Hiromi Kyotani
博美 京谷
Osamu Nonaka
修 野中
Yoshiaki Matsuzawa
良紀 松澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2007112132A priority Critical patent/JP4889554B2/en
Publication of JP2008271239A publication Critical patent/JP2008271239A/en
Publication of JP2008271239A5 publication Critical patent/JP2008271239A5/ja
Application granted granted Critical
Publication of JP4889554B2 publication Critical patent/JP4889554B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a user who does not get used to photography with motivation to take photographs and to simultaneously create fascinating content in which image and texts are harmonized. <P>SOLUTION: Document data of a literary book is retrieved from the title of the literary book input by the user, text data of a sentence including a keyword to be a subject in photography is extracted in the retrieved document data and the extracted text data are recorded in the sentence data base 116a of a digital camera 100. In display of through-the-lens images by the digital camera 100, the text data of the sentence recorded in the sentence data base 116a are displayed together with the through-the-lens images and after the photography, texts displayed together with the through-the-lens images are combined with the image and recorded in recording medium 117. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像とテキストとが一体となったコンテンツを楽しめるカメラ、コンテンツ作成方法、及びプログラムに関する。   The present invention relates to a camera that can enjoy content in which an image and text are integrated, a content creation method, and a program.

近年、ネットワーク環境の充実によって各種のネットワークサービスが拡充されている。このようなサービスによって、ユーザは画像なり、エッセイ等のテキストなりといったコンテンツをアップロードし、アップロードされたコンテンツを不特定多数の閲覧者に鑑賞してもらえる楽しみ方が一般的になってきている。こうしたコンテンツはコンシューマでありながら発信者でもある人が作るもので、コンシューマジェネレーテッドメディア(CGM)等と呼ばれている。このようなコンテンツは発信者が初心者である場合に玉石混交の内容となりやすいので、こうしたユーザのモチベーションを維持しつつ、魅力的なコンテンツを作成できるシステムが望まれてきている。   In recent years, various network services have been expanded due to the enhancement of the network environment. With such a service, it has become common for users to upload content such as images and texts such as essays, and to enjoy the uploaded content by an unspecified number of viewers. Such content is created by a person who is both a consumer and a sender, and is called consumer generated media (CGM) or the like. Since such content tends to be mixed with cobblestones when the caller is a beginner, a system capable of creating attractive content while maintaining such user motivation has been desired.

また、近年では、画像のみやテキストのみではなく、これらが有機的に結合されたコンテンツが求められている。   In recent years, not only images and text but also contents in which these are organically combined have been demanded.

このような複数のコンテンツを有機的に結合させる技術として、例えば特許文献1においては写真と俳句とを関連付ける技術が提案されている。この特許文献1の手法は、画像管理を、俳句を使って行うものであり、従来のシステムでは、各撮影画像についての所望の全文字列情報を一々ユーザ自身が考えて書き込んで対応付けし、写真集として保存したり記録したりするのが非常に面倒であるところを、得られた画像に対して当該画像に応じた文字列情報を簡単に対応付けして管理することが可能である。   As a technique for organically combining such a plurality of contents, for example, Patent Document 1 proposes a technique for associating a photograph with a haiku. The method of this patent document 1 performs image management using haiku, and in the conventional system, the user writes and associates all desired character string information for each captured image one by one, Where it is very troublesome to store and record as a photo book, it is possible to manage the obtained image by simply associating the character string information corresponding to the image with the obtained image.

また、特許文献2においてはデータベースより通信手段を介して、撮影する被写体に対応したカメラの設定データや撮影ガイドを表示させることにより、確実な撮影が行えるようにしている。
特開2004−240579号公報 特開2005−184610号公報
In Patent Document 2, the camera setting data and the photographing guide corresponding to the subject to be photographed are displayed from the database via the communication means so that reliable photographing can be performed.
JP 2004-240579 A JP 2005-184610 A

ここで、特許文献1は画像の整理に力点が置かれており、特許文献2は撮影を確実に行うことに力点が置かれており、魅力的なコンテンツの作成を促すものではない。   Here, Patent Document 1 focuses on organizing images, and Patent Document 2 focuses on reliably capturing images, and does not encourage creation of attractive content.

本発明は、上記の事情に鑑みてなされたもので、写真撮影になれていないユーザに写真を撮影するモチベーションを与え、同時に画像とテキストが調和した魅力的なコンテンツを作成することができるカメラ、コンテンツ作成方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a motivation to take a photograph to a user who is not photographed, and at the same time, can create attractive content in which images and text are harmonized, It is an object to provide a content creation method and program.

上記の目的を達成するために、本発明の第1の態様のカメラは、画像を取得する撮像部と、文芸書のタイトルに応じた文芸書のテキストにおける、所定の特徴を有するキーワードを含むセンテンスを記録する記録部と、上記センテンスと上記タイトルとを、上記画像に合成して表示する表示部とを具備することを特徴とする。   In order to achieve the above object, a camera according to a first aspect of the present invention includes an imaging unit that acquires an image, and a sentence including a keyword having a predetermined characteristic in the text of a literary book according to the title of the literary book. And a display unit for combining and displaying the sentence and the title on the image.

また、上記の目的を達成するために、本発明の第2の態様のコンテンツ作成方法は、文芸書のタイトルに応じた文芸書のテキストから、所定の特徴を有するキーワードを含むセンテンスを抽出する工程と、上記抽出したセンテンスと上記タイトルとを画像に合成する工程と、上記合成した画像を表示する工程とを有することを特徴とする。   In order to achieve the above object, the content creation method according to the second aspect of the present invention includes a step of extracting a sentence including a keyword having a predetermined characteristic from the text of a literary book according to the title of the literary book. And a step of combining the extracted sentence and the title with an image, and a step of displaying the combined image.

さらに、上記の目的を達成するために、本発明の第3の態様のコンテンツ作成プログラムは、文芸書のタイトルに応じた文芸書のテキストから、所定の特徴を有するキーワードを含むセンテンスを抽出する手順と、上記抽出したセンテンスと上記タイトルとを画像に合成する手順と、上記合成した画像を表示する手順とをコンピュータに実行させる。   Furthermore, in order to achieve the above object, the content creation program according to the third aspect of the present invention is a procedure for extracting a sentence including a keyword having a predetermined characteristic from text of a literary book according to the title of the literary book. And a procedure for synthesizing the extracted sentence and the title to an image and a procedure for displaying the synthesized image.

本発明によれば、写真撮影になれていないユーザに写真を撮影するモチベーションを与え、同時に画像とテキストが調和した魅力的なコンテンツを作成することができるカメラ、コンテンツ作成方法、及びプログラムを提供することができる。   According to the present invention, there are provided a camera, a content creation method, and a program capable of giving a motivation to take a photograph to a user who is not photographed and at the same time creating attractive content in which images and text are harmonized. be able to.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の一実施形態に係るカメラを含む通信システムの構成を示す図である。図1に示す通信システムは、本発明の一実施形態に係るカメラの一例であるデジタルカメラ100と、サーバ300と、データベース400と、パーソナルコンピュータ(PC)500とを有し、これらが互いにデータ通信自在に接続されて構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a communication system including a camera according to an embodiment of the present invention. The communication system shown in FIG. 1 includes a digital camera 100, which is an example of a camera according to an embodiment of the present invention, a server 300, a database 400, and a personal computer (PC) 500, which are in data communication with each other. It is configured to be freely connected.

図1に示すデジタルカメラ100は、マイクロプロセッシングユニット(MPU)101と、操作部102と、撮影レンズ103と、オートフォーカス(AF)回路104と、絞り機構105と、絞り制御回路106と、撮像素子107と、アナログフロントエンド(AFE)回路108と、画像処理回路109と、表示制御回路110と、表示パネル111と、テキスト合成回路112と、距離検出回路113と、顔検出回路114と、圧縮/伸張部115と、記録制御部116と、記録メディア117と、通信部118と、補助光発光回路119とを有して構成されている。   A digital camera 100 shown in FIG. 1 includes a microprocessing unit (MPU) 101, an operation unit 102, a photographing lens 103, an autofocus (AF) circuit 104, an aperture mechanism 105, an aperture control circuit 106, and an image sensor. 107, an analog front end (AFE) circuit 108, an image processing circuit 109, a display control circuit 110, a display panel 111, a text synthesis circuit 112, a distance detection circuit 113, a face detection circuit 114, a compression / The expansion unit 115 includes a recording control unit 116, a recording medium 117, a communication unit 118, and an auxiliary light emitting circuit 119.

MPU101は、ユーザからの操作部102の操作に応じてデジタルカメラ100を構成する各ブロックを所定のプログラムに従ってシーケンシャルに制御する。操作部102は、デジタルカメラ100による撮影を実行させるためのレリーズスイッチや、デジタルカメラ100の動作モード撮影モード、再生モード等に切り替えるための切り替えスイッチ、構図確認時に文芸書から抽出されたセンテンスを表示パネル111に表示させるためのスイッチ等が含まれる。また、後述するタイトルの入力をデジタルカメラ100から行う場合には、操作部102として文字を入力するための操作部も含まれる。   The MPU 101 sequentially controls each block constituting the digital camera 100 according to a predetermined program in accordance with the operation of the operation unit 102 from the user. The operation unit 102 displays a release switch for executing shooting by the digital camera 100, a changeover switch for switching to an operation mode shooting mode and a playback mode of the digital camera 100, and a sentence extracted from the literary book at the time of composition confirmation. A switch or the like for displaying on the panel 111 is included. In addition, when inputting a title to be described later from the digital camera 100, an operation unit for inputting characters is also included as the operation unit 102.

また、MPU101は、ユーザによって写真撮影がなされた時刻を計測するためのタイマを有している。これにより、撮影によって得られる画像データに対して撮影時刻が関連付けられる。   The MPU 101 also has a timer for measuring the time when the user took a picture. Thereby, the photographing time is associated with the image data obtained by photographing.

撮影レンズ103は、被写体200からの像を撮像素子107に結像させる。この撮影レンズ103は、オートフォーカス(ピント合わせ)用のレンズを含んでいる。オートフォーカスの際に、MPU101は、ピント合わせレンズのレンズ位置をモニタしつつ、AF回路104を制御してピント合わせレンズのレンズ位置を切り替えて撮影レンズ103のピント合わせを行う。また、撮影レンズ103にズームレンズが含まれている場合にはズームレンズの位置を切り替えることで撮影時の画角を切り替えることもできる。   The taking lens 103 forms an image from the subject 200 on the image sensor 107. The photographing lens 103 includes a lens for autofocus (focusing). During autofocus, the MPU 101 controls the AF circuit 104 while switching the lens position of the focusing lens while monitoring the lens position of the focusing lens, and performs focusing of the photographing lens 103. In addition, when the photographing lens 103 includes a zoom lens, the angle of view at the time of photographing can be switched by switching the position of the zoom lens.

絞り機構105は、撮影レンズ103内又はその近傍に設けられ、シャッタや絞りの効果を奏する機構である。絞り機構105は、撮影開始時に絞り制御回路106によって所定の口径まで開かれ、撮影終了時に閉じられるものである。撮影時の絞り機構105の口径を変えることによって、撮影レンズ103の被写界深度が変化する。これによって、背景被写体のぼけ具合等を調整して、撮影時に主要被写体を浮かび上がらせたり、背景被写体をしっかりと描写したりするなどの表現の切替を行うことができる。   The aperture mechanism 105 is a mechanism that is provided in the vicinity of the photographing lens 103 or has an effect of a shutter or an aperture. The aperture mechanism 105 is opened to a predetermined aperture by the aperture control circuit 106 at the start of shooting and closed at the end of shooting. By changing the aperture of the aperture mechanism 105 at the time of shooting, the depth of field of the shooting lens 103 changes. Thereby, it is possible to switch the expression such as adjusting the degree of blurring of the background subject to make the main subject appear at the time of shooting or to clearly depict the background subject.

撮像素子107は、多数の画素が配列されて構成される受光面を有し、撮影レンズ103を介して受光した被写体200からの像を電気的な信号に変換する。本実施形態においては、撮像素子107にはCCD方式及びCMOS方式の何れを用いても良い。   The image sensor 107 has a light receiving surface configured by arranging a large number of pixels, and converts an image from the subject 200 received through the photographing lens 103 into an electrical signal. In the present embodiment, the image sensor 107 may use either a CCD system or a CMOS system.

AFE回路108は、CDS回路、ゲイン調整回路、AD変換回路等を含み、撮像素子107において得られるアナログ電気信号に対し相関二重サンプリング処理、ゲイン調整処理といったアナログ処理を行った後、これによって得られる画像信号をデジタルデータ化して画像処理回路109に入力する。また、AFE回路108には、撮像素子107を構成する複数の画素からの信号を一括して読み出す機能も設けられている。例えば、AFE回路108によって、4画素(2×2画素)や9画素(3×3画素)の信号をまとめて読み出し、これら読み出した電気信号を加算することでS/Nを向上させることができる。このような処理によって、撮像素子107の見かけ上の感度を上げること等ができる。   The AFE circuit 108 includes a CDS circuit, a gain adjustment circuit, an AD conversion circuit, and the like, and is obtained by performing analog processing such as correlated double sampling processing and gain adjustment processing on the analog electric signal obtained in the image sensor 107. The obtained image signal is converted into digital data and input to the image processing circuit 109. The AFE circuit 108 is also provided with a function of reading signals from a plurality of pixels constituting the image sensor 107 at a time. For example, the AFE circuit 108 can read out signals of 4 pixels (2 × 2 pixels) and 9 pixels (3 × 3 pixels) in a lump and add these read-out electric signals to improve the S / N. . By such processing, the apparent sensitivity of the image sensor 107 can be increased.

さらに、AFE回路108は、撮像素子107からの出力信号を取捨選択する機能も有し、撮像素子107の全有効画素のうち、限られた範囲の画素からの信号のみを抽出することもできる。一般に、撮像素子107は間引きを行うことで高速で信号を読み出すことができる。この機能を利用して、撮像素子107で構図確認用に得られたスルー画像を高速で読み出して画像処理回路109において処理してから表示パネル111に表示すれば、ユーザは表示パネル111上に表示される画像を利用してフレーミングを行うことが可能である。   Further, the AFE circuit 108 also has a function of selecting an output signal from the image sensor 107, and can extract only signals from pixels in a limited range among all effective pixels of the image sensor 107. In general, the image sensor 107 can read signals at high speed by performing thinning. By using this function, a through image obtained for composition confirmation by the image sensor 107 is read at high speed, processed in the image processing circuit 109, and then displayed on the display panel 111. It is possible to perform framing using the image to be displayed.

画像処理回路109は、AFE回路108から入力される画像データにおける色や階調、シャープネス等を補正処理したり、画像データのレベルを所定のレベルに増幅して、正しい濃淡及び正しい灰色レベルに調整したりする各種画像処理を行う。   The image processing circuit 109 corrects the color, gradation, sharpness, etc. in the image data input from the AFE circuit 108, or amplifies the level of the image data to a predetermined level to adjust it to the correct shading and the correct gray level. Various image processing is performed.

また、上述したようなフレーミング用のスルー画像等の各種の画像を表示するために、画像処理回路109は、AFE回路108から入力される画像データを表示パネル111に表示可能なようにリサイズ(縮小)する機能も有する。   In addition, in order to display various images such as the framing through image as described above, the image processing circuit 109 resizes (reduces) the image data input from the AFE circuit 108 so that it can be displayed on the display panel 111. ).

表示制御回路110は、画像処理回路109で得られた画像データや記録メディア117に記録されている画像データを映像信号に変換し、表示パネル111に表示させる。表示部としての表示パネル111は液晶表示パネルや有機EL表示パネル等の表示パネルである。また、表示制御回路110は、表示パネル111に複数の画像を重畳して表示させるマルチ画面表示機能も有している。このマルチ画面表示機能によって、撮影した画像や撮影する画像の上に、モード設定の文字表示やいろいろな警告表示を重畳表示することも可能である。   The display control circuit 110 converts the image data obtained by the image processing circuit 109 and the image data recorded on the recording medium 117 into a video signal, and displays it on the display panel 111. The display panel 111 as a display unit is a display panel such as a liquid crystal display panel or an organic EL display panel. The display control circuit 110 also has a multi-screen display function for displaying a plurality of images superimposed on the display panel 111. With this multi-screen display function, it is also possible to superimpose a character display of mode setting and various warning displays on the captured image or the captured image.

テキスト合成回路112は、画面内の所定位置に小説などの一節(センテンス)のテキストが表示されるように画像処理回路109によって得られる画像データにテキストデータを合成する。このテキスト合成の詳細については後述する。   The text synthesizing circuit 112 synthesizes the text data with the image data obtained by the image processing circuit 109 so that text of a passage such as a novel is displayed at a predetermined position on the screen. Details of this text composition will be described later.

距離検出回路113は、画像処理回路109によって得られる画像のコントラストを検出する。この距離検出回路113によって検出されるコントラストはオートフォーカスの際に用いられる。即ち、AF回路104によって撮影レンズ103のピント合わせレンズのレンズ位置を変化させながら、距離検出回路113によって画像のコントラストを逐次検出し、検出されるコントラストが最大となるレンズ位置でピント合わせレンズを停止させることで、撮影レンズ103のピント合わせを行うことができる。   The distance detection circuit 113 detects the contrast of the image obtained by the image processing circuit 109. The contrast detected by the distance detection circuit 113 is used during autofocus. That is, while the AF circuit 104 changes the lens position of the focusing lens of the photographing lens 103, the distance detection circuit 113 sequentially detects the contrast of the image, and stops the focusing lens at the lens position where the detected contrast is maximized. By doing so, the photographing lens 103 can be focused.

顔検出回路114は、画像処理回路109によって得られる画像内の特徴点(例えば、主要被写体が人物等であれば、目や鼻、口等)の分布から、主要被写体の特に顔を検出する。   The face detection circuit 114 detects, in particular, the face of the main subject from the distribution of feature points in the image obtained by the image processing circuit 109 (for example, if the main subject is a person, eyes, nose, mouth, etc.).

圧縮/伸張部115は、撮影時に、画像処理回路109において処理された画像データを圧縮するとともに、再生時に記録制御部116を介して記録メディア117から読み出した画像データを伸張する。   The compression / expansion unit 115 compresses the image data processed by the image processing circuit 109 at the time of shooting, and expands the image data read from the recording medium 117 via the recording control unit 116 at the time of reproduction.

記録制御部116は、圧縮/伸張部115で圧縮された画像データに付随データを付随させて記録メディア117に記録する。また、記録制御部116は、後述するテキスト合成に用いられるテキストを格納する記録部としてのセンテンスデータベース116aを有している。このセンテンスデータベース116aの内容は、カメラ製造時に記録してもよいが、デジタルカメラ100外部のサーバ300等からネットワーク経由で書き換えることができる。   The recording control unit 116 records the image data compressed by the compression / expansion unit 115 on the recording medium 117 with accompanying data. The recording control unit 116 has a sentence database 116a as a recording unit for storing text used for text synthesis described later. The contents of the sentence database 116a may be recorded when the camera is manufactured, but can be rewritten via a network from the server 300 or the like outside the digital camera 100.

通信部118は、記録メディア117に記録された画像データ等をデジタルカメラ100外部のサーバ300等に送信したり、サーバ300等から各種の情報を受信したりする際の通信制御を行う。この通信部118によって、デジタルカメラ100で撮影した画像を他の人に転送したり、ネットワーク上のサービス(例えば、ネットワーク接続されたサイト等と連携したサービス)を利用して、情報を付加したり、受信したりすることができる。   The communication unit 118 performs communication control when transmitting image data or the like recorded on the recording medium 117 to the server 300 or the like outside the digital camera 100 or receiving various information from the server 300 or the like. The communication unit 118 can transfer an image captured by the digital camera 100 to another person, or can add information using a service on a network (for example, a service linked with a network-connected site). Can be received.

補助光発光回路119は、撮影時の状況に応じて被写体200に補助光を照射する。これによって、撮影時の明るさの不足や不均一を防止する。この補助光発光回路119の動作を、ユーザが操作部102を操作してマニュアルで制御できるようにしても良い。   The auxiliary light emitting circuit 119 irradiates the subject 200 with auxiliary light according to the situation at the time of shooting. This prevents insufficient brightness and unevenness during shooting. The operation of the auxiliary light emitting circuit 119 may be manually controlled by the user operating the operation unit 102.

サーバ300は、例えばブログやSNS(Social Networking Service)等のCGM(Consumer Generated Media)を管理するサーバを想定している。このサーバ300は、制御部301と、通信部302と、記録部303とを有している。制御部301は、記録部303に記録されたコンテンツをPC500やデジタルカメラ100に表示させる機能や、データベース400の文書データベース401に記録されている文書データから所定のセンテンスのテキストデータを抽出する機能等の、サーバ300における各種の動作を制御する。通信部302は、サーバ300が、デジタルカメラ100、データベース400、PC500とデータ通信する際の通信制御を行う。記録部303は、デジタルカメラ100から送信されてきた画像データ等の各種コンテンツを記録する。   The server 300 is assumed to be a server that manages CGM (Consumer Generated Media) such as a blog or SNS (Social Networking Service). The server 300 includes a control unit 301, a communication unit 302, and a recording unit 303. The control unit 301 has a function of displaying the content recorded in the recording unit 303 on the PC 500 or the digital camera 100, a function of extracting text data of a predetermined sentence from the document data recorded in the document database 401 of the database 400, and the like. The various operations in the server 300 are controlled. The communication unit 302 performs communication control when the server 300 performs data communication with the digital camera 100, the database 400, and the PC 500. The recording unit 303 records various contents such as image data transmitted from the digital camera 100.

データベース400は、サーバ300によって参照される各種のデータを記録する。データベース400は、文書データベース401と、被写体データベース402とを有している。文書データベース401は、文芸書のタイトルとその文芸書の内容を示す文書データとを対応付けて記録する。被写体データベース402は、文書データ中から所定のセンテンスを抽出するための被写体の種類、名称等を示すキーワードをテキストデータとして記録する。このキーワードとしては、撮影場所の位置情報、撮影時間や時期、季節に関するもの等も含まれる。また、具体的な固有名詞(例えば富士山、日本海等)や自然を表わす所謂山川草木、花鳥風月に関する語句、及び俳句の季語や季題等も含まれる。   The database 400 records various data referred to by the server 300. The database 400 includes a document database 401 and a subject database 402. The document database 401 records the title of a literary book and document data indicating the contents of the literary book in association with each other. The subject database 402 records, as text data, a keyword indicating the type, name, etc. of a subject for extracting a predetermined sentence from document data. This keyword includes information on the location of the shooting location, shooting time and time, season, and the like. In addition, specific proper nouns (for example, Mt. Fuji, the Sea of Japan, etc.), so-called Yamakawa Kuseki representing nature, phrases related to Hanafuru Fugetsu, haiku seasons and seasons, and the like are also included.

PC500は、ウェブページをブラウジングするためのソフトウェアがインストールされ、ウェブページ上で各種の操作を行うためのマウスやキーボードといった操作部や液晶ディスプレイ等の表示部を有するコンピュータである。   The PC 500 is a computer in which software for browsing a web page is installed and has an operation unit such as a mouse and a keyboard and a display unit such as a liquid crystal display for performing various operations on the web page.

以上のような構成の通信システムにおいて、ユーザが感銘を受けた小説やエッセイなど(以下、文芸書と記す)のタイトルを、例えばPC500を介してサーバ300に入力する。なお、タイトルの入力はデジタルカメラ100を介して行えるようにしても良い。タイトルが入力されると、サーバ300の制御部301は、そのタイトルの文書データを文書データベース401から読み出して、その文書データ中に含まれる各センテンスをくまなく調べ、所定の決まりでセンテンスのテキストデータを抽出し、抽出したセンテンスのテキストデータをデジタルカメラ100のセンテンスデータベース116aに送って記録させる。センテンスのテキストデータの抽出の際の所定の決まりとは、そのセンテンスが被写体データベース402に記録されているキーワードを含んでいるか否かであり、制御部301は文書データの中から被写体データベース402に記録されているキーワードを含むセンテンスのテキストデータを抽出する。   In the communication system configured as described above, the title of a novel or essay (hereinafter referred to as a literary book) that the user has been impressed by is input to the server 300 via the PC 500, for example. Note that the title may be input via the digital camera 100. When a title is input, the control unit 301 of the server 300 reads out the document data of the title from the document database 401, examines every sentence included in the document data, and text data of the sentence according to a predetermined rule. And the text data of the extracted sentence is sent to the sentence database 116a of the digital camera 100 for recording. The predetermined rule when extracting sentence text data is whether or not the sentence includes a keyword recorded in the subject database 402, and the control unit 301 records the document data in the subject database 402. The text data of the sentence including the keyword that has been extracted is extracted.

以下、図2の模式図を用いてセンテンスのテキストデータの抽出についてさらに説明する。ユーザによって文芸書のタイトルが入力されると、そのタイトルの文書データが文書データベース401から検索される。文書データベース401から該当する文書データが検索されると、制御部301は、文書データと被写体データベース402に記録されているキーワードとの照合を行う。被写体データベース402には、自然(空、山、川、海等)、建造物(建物、店、像等)、動植物(花、木、鳥等)、機器(時計、机等)等の、画像撮影の際に被写体になりうるものの名称がキーワードとして記録されている。制御部301は、文書データ中から、これらのキーワードを含むセンテンスを抽出し、抽出したセンテンスのテキストデータを文芸書の中で出てきた順にデジタルカメラ100のセンテンスデータベース116aに送信する。デジタルカメラ100のMPU101はサーバ300から送信されてきたセンテンスデータを送信されてきた順にセンテンスデータベース116aに記録させる。   Hereinafter, extraction of sentence text data will be further described with reference to the schematic diagram of FIG. When the title of the literary book is input by the user, the document data of the title is retrieved from the document database 401. When the corresponding document data is retrieved from the document database 401, the control unit 301 collates the document data with the keywords recorded in the subject database 402. The subject database 402 includes images of nature (sky, mountain, river, sea, etc.), structures (buildings, shops, statues, etc.), animals and plants (flowers, trees, birds, etc.), equipment (clocks, desks, etc.), etc. The name of a subject that can be a subject at the time of shooting is recorded as a keyword. The control unit 301 extracts sentences including these keywords from the document data, and transmits the extracted sentence text data to the sentence database 116a of the digital camera 100 in the order in which they appear in the literary book. The MPU 101 of the digital camera 100 records the sentence data transmitted from the server 300 in the sentence database 116a in the order of transmission.

ここで、サーバ300からデジタルカメラ100にはセンテンスデータとともに文芸書のタイトルも送信することが望ましい。また、著者名等の文芸書に係る各種の情報も併せて送信するようにしても良い。   Here, it is desirable to transmit the title of the literary book from the server 300 to the digital camera 100 together with the sentence data. Also, various information related to literary books such as author names may be transmitted together.

このようにしてデジタルカメラ100のセンテンスデータベース116aに記録されたセンテンスデータ等は撮影時に得られた画像データと合成されて記録される。例えば、図3(a)のように、ユーザが、写真撮影前のフレーミング時に、デジタルカメラ100に設けられたセンテンス表示スイッチ102aを操作すると、構図確認用のスルー画像とともにセンテンスデータベース116aに記録されたセンテンスのテキストが表示される。図3(b)及び図3(c)にセンテンスのテキストの表示例を示す。図3(b)は、構図確認用のスルー画像111aとセンテンスのテキスト111bとを表示パネル111上の別部分に表示させる例である。また、図3(b)においては、センテンスのテキスト111bに加えて、センテンスを引用した文芸書のタイトルのテキスト111cも表示させるようにしている。一方、図3(c)は、構図確認用のスルー画像111aに、センテンスのテキスト111bと文芸書のタイトルのテキスト111cとを重畳させて表示させる例である。ここで、図3(c)のように、テキストをスルー画像に重畳させて表示させる場合は、表示されたテキストが構図の確認の妨げとならないようにすることが好ましい。この手法については後述する。   The sentence data and the like recorded in the sentence database 116a of the digital camera 100 in this way are combined with the image data obtained at the time of shooting and recorded. For example, as shown in FIG. 3A, when a user operates a sentence display switch 102a provided in the digital camera 100 during framing before taking a picture, the sentence is recorded in the sentence database 116a together with a through image for composition confirmation. The text of the sentence is displayed. 3B and 3C show examples of sentence text display. FIG. 3B shows an example in which the through image 111 a for composition confirmation and the text 111 b of the sentence are displayed on different parts on the display panel 111. In addition, in FIG. 3B, in addition to the sentence text 111b, the text 111c of the title of the literary book that quotes the sentence is also displayed. On the other hand, FIG. 3C is an example in which the text 111b of the sentence and the text 111c of the literary book title are superimposed and displayed on the through image 111a for composition confirmation. Here, as shown in FIG. 3C, when the text is superimposed on the through image and displayed, it is preferable that the displayed text does not interfere with composition confirmation. This method will be described later.

ユーザが図3(b)や図3(c)のような画像が表示されている状態で撮影操作を行うことにより、撮影により得られた画像データにセンテンスのテキストデータ及びタイトルのテキストデータが合成されて記録メディア117に記録される。   When the user performs a shooting operation in a state where an image as shown in FIG. 3B or 3C is displayed, the text data of the sentence and the text data of the title are combined with the image data obtained by shooting. And recorded on the recording medium 117.

このような動作によって、ユーザは、テキストと画像のバランスを取った撮影が可能となる。また、撮影後に、テキストを引用する必要なく、撮影時にそれを確認しながら撮影を楽しむことができる。   By such an operation, the user can take a picture with a balance between the text and the image. In addition, it is not necessary to quote text after shooting, and it is possible to enjoy shooting while confirming it at the time of shooting.

以下、図4及び図5を参照して図1の通信システムを用いたコンテンツの作成方法の流れについて説明する。   Hereinafter, a flow of a content creation method using the communication system of FIG. 1 will be described with reference to FIGS. 4 and 5.

図4は、図1の通信システムにおけるサーバ300側の制御について示すフローチャートである。図4において、サーバ300の制御部301は、ユーザによるPC500等の操作(デジタルカメラ100からの操作であっても良い)によって文芸書のタイトルが入力されたか否かを判定している(ステップS1)。ステップS1の判定において、文芸書のタイトルが入力された場合に、制御部301は、文芸書のタイトルに対応した文書データを文書データベース401から検索し、検索した文書データと被写体データベース402のキーワードデータとを比較してキーワードを含むセンテンス(例えば1文)を抽出する(ステップS2)。そして、制御部301は、抽出した順(即ち、センテンスが文書中に出てきた順)に、センテンスのテキストデータ及びタイトルのテキストデータをデジタルカメラ100に送信する(ステップS3)。その後に、制御部301は、図4の処理を終了させる。このようにしてセンテンスのテキストデータ及びタイトルのテキストデータはデジタルカメラ100のセンテンスデータベース116aに記録される。文書量が多い場合であっても、抽出されるセンテンスは短いので、デジタルカメラ100に記録される容量を少なくすることができる。なお、上述したように、センテンス及びタイトルのテキストデータに加えて著者名のテキストデータも合わせて記録させるようにしてもよい。   FIG. 4 is a flowchart showing control on the server 300 side in the communication system of FIG. In FIG. 4, the control unit 301 of the server 300 determines whether or not the title of the literary book has been input by the user's operation on the PC 500 or the like (which may be an operation from the digital camera 100) (step S1). ). When the title of the literary book is input in the determination in step S <b> 1, the control unit 301 searches the document database 401 for document data corresponding to the title of the literary book, and searches the document data and the keyword data of the subject database 402. And a sentence including a keyword (for example, one sentence) is extracted (step S2). Then, the control unit 301 transmits the sentence text data and the title text data to the digital camera 100 in the extracted order (that is, the order in which the sentences appear in the document) (step S3). Thereafter, the control unit 301 ends the process of FIG. In this way, sentence text data and title text data are recorded in the sentence database 116 a of the digital camera 100. Even when the amount of documents is large, the extracted sentence is short, so that the capacity recorded in the digital camera 100 can be reduced. As described above, in addition to sentence and title text data, author name text data may also be recorded.

一方、ステップS1の判定において、文芸書のタイトルの入力がなされていない場合に、制御部301は、ユーザによるPC500等の操作によってコンテンツの再生指示がなされたか否かを判定する(ステップS4)。そして、ステップS4の判定において、コンテンツの再生指示がなされた場合に、制御部301は、記録部303に記録されている画像等のコンテンツを再生する(ステップS5)。その後に制御部301は、図4の処理を終了させる。一方、ステップS4の判定において、コンテンツの再生指示がなされていない場合に、制御部301は、センテンスの抽出やコンテンツの再生を行わずに、図4の処理を終了させる。   On the other hand, when the title of the literary book has not been input in the determination in step S1, the control unit 301 determines whether or not a content reproduction instruction has been given by an operation of the PC 500 or the like by the user (step S4). When the content reproduction instruction is given in the determination in step S4, the control unit 301 reproduces the content such as an image recorded in the recording unit 303 (step S5). Thereafter, the control unit 301 ends the process of FIG. On the other hand, if it is determined in step S4 that no content reproduction instruction has been issued, the control unit 301 ends the processing in FIG. 4 without extracting a sentence or reproducing the content.

図5は、図1の通信システムにおけるデジタルカメラ100側の制御について示すフローチャートである。   FIG. 5 is a flowchart showing control on the digital camera 100 side in the communication system of FIG.

デジタルカメラ100のMPU101は、ユーザにより操作部102のレリーズスイッチが操作されたか否かを判定することにより、撮影指示がなされたか否かを判定している(ステップS11)。ステップS11の判定において、撮影指示がなされていない場合に、MPU101は、ユーザにより操作部102の操作により再生指示がなされたか否かを判定する(ステップS12)。ステップS12の判定において、再生指示がなされていない場合に、MPU101は、ユーザによる操作部102の操作により、スルー画表示指示がなされたか否かを判定する(ステップS30)。ステップS30の判定において、スルー画表示指示がなされた場合に、MPU101は、フレーミング用のスルー画表示を開始させる(ステップS13)。一方、ステップS30の判定において、スルー画表示指示がなされていない場合に、MPU101は、サーバ300からデータの送信があるか否かを判定する(ステップS31)。   The MPU 101 of the digital camera 100 determines whether or not a shooting instruction has been made by determining whether or not the release switch of the operation unit 102 has been operated by the user (step S11). If it is determined in step S11 that no shooting instruction has been given, the MPU 101 determines whether or not a reproduction instruction has been given by the user operating the operation unit 102 (step S12). If it is determined in step S12 that a reproduction instruction has not been given, the MPU 101 determines whether or not a through image display instruction has been given by the operation of the operation unit 102 by the user (step S30). When the through image display instruction is given in the determination of step S30, the MPU 101 starts displaying the through image for framing (step S13). On the other hand, when the through image display instruction is not given in the determination in step S30, the MPU 101 determines whether there is data transmission from the server 300 (step S31).

ステップS31の判定において、サーバ300からのデータ送信がある場合に、MPU101は、通信部118を介してセンテンス及びタイトルのテキストデータを受信する(ステップS32)。そして、データ受信がすべて完了すると、処理がステップS11に戻る。なお、通信部118を介して受信されたセンテンス及びタイトルのテキストデータはセンテンスデータベース116aに記憶される。   When it is determined in step S31 that there is data transmission from the server 300, the MPU 101 receives sentence and title text data via the communication unit 118 (step S32). When all the data reception is completed, the process returns to step S11. The sentence and title text data received via the communication unit 118 is stored in the sentence database 116a.

スルー画表示の開始後、MPU101は、ユーザによるセンテンス表示スイッチ102aの操作がなされたか否かを判定することにより、センテンスのテキストの表示指示がなされたか否かを判定する(ステップS14)。ステップS14の判定において、センテンスのテキストの表示指示がなされていない場合には、ステップS11に戻り、MPU101はユーザによって撮影指示がなされたか否かを再び判定する。一方、ステップS14の判定において、センテンスのテキストの表示指示がなされた場合に、MPU101は画面の縦横判定を行う(ステップS15)。これは、センテンスのテキストをユーザが正しく読めるように表示させるための処理であり、例えば、日中や照明下の撮影ではスルー画表示されている画像中の明るい部分を検出し、この明るい部分を画面の上と判定する。また、顔検出回路114によって顔検出を行い、この顔の向きから画面の縦横を判定するようにしても良い。あるいは、角速度センサ等を用いてデジタルカメラ100の姿勢(縦位置で構えられているか正位置で構えられているか)を検出することにより、画面の縦横を判定するようにしても良い。   After starting the live view display, the MPU 101 determines whether or not an instruction to display a sentence text has been issued by determining whether or not the user has operated the sentence display switch 102a (step S14). If it is determined in step S14 that a sentence text display instruction has not been issued, the process returns to step S11, and the MPU 101 determines again whether or not a shooting instruction has been issued by the user. On the other hand, in the determination in step S14, when an instruction to display a sentence text is given, the MPU 101 performs vertical / horizontal determination of the screen (step S15). This is a process for displaying the text of a sentence so that the user can read it correctly. For example, when shooting in the daytime or under lighting, a bright part in an image displayed through is detected, and this bright part is detected. Determined to be on the screen. Further, face detection may be performed by the face detection circuit 114, and the height and breadth of the screen may be determined from the face orientation. Alternatively, the vertical and horizontal directions of the screen may be determined by detecting the posture of the digital camera 100 (whether it is held in a vertical position or a normal position) using an angular velocity sensor or the like.

画面の縦横判定の終了後、MPU101は、顔検出回路114による顔検出を行う(ステップS16)。なお、ステップS15の画面の縦横判定時に顔検出を行っている場合にはステップS16の処理を省略することもできる。ステップS16の後、MPU101は顔検出回路114によって画像内に顔が検出されたか否かを判定する(ステップS17)。   After completing the vertical / horizontal determination of the screen, the MPU 101 performs face detection by the face detection circuit 114 (step S16). If face detection is performed during the vertical / horizontal determination of the screen in step S15, the process in step S16 can be omitted. After step S16, the MPU 101 determines whether or not a face is detected in the image by the face detection circuit 114 (step S17).

ステップS17の判定において、顔が検出された場合には、図3(c)のような表示を行う。この場合には、顔部にテキストが表示されるのを避けるためにMPU101は、センテンスのテキスト及びタイトルのテキストの表示位置を、ステップS16で検出された顔位置以外の位置に設定するとともにテキストの向きを縦横判定によって判定された画面の向きに応じて設定する(ステップS18)。また、図3(c)のような表示の場合には、テキストが背景に埋もれてしまう可能性があるので、MPU101はテキストの表示色を、テキストの表示位置における背景の補色に設定し、センテンスのテキスト及びタイトルのテキストをスルー画像とともに表示パネル111に表示させる(ステップS19)。   If a face is detected in the determination in step S17, a display as shown in FIG. In this case, in order to avoid displaying the text on the face, the MPU 101 sets the display position of the sentence text and the title text to a position other than the face position detected in step S16 and The orientation is set according to the orientation of the screen determined by the vertical / horizontal determination (step S18). In the case of the display as shown in FIG. 3C, the text may be buried in the background. Therefore, the MPU 101 sets the display color of the text to the complementary color of the background at the text display position. And the text of the title are displayed on the display panel 111 together with the through image (step S19).

また、ステップS17の判定において、顔が検出されなかった場合には、図3(b)のようにスルー画像とは別枠の位置にテキストを表示させる。即ち、MPU101は、センテンスのテキスト及びタイトルのテキストを表示パネル111のスルー画像が表示される枠とは別枠の位置(例えば画面左側。スルー画像と別枠の位置であれば画面左側でなくとも良い)に表示させる(ステップS20)。   If no face is detected in the determination in step S17, the text is displayed at a position different from the through image as shown in FIG. That is, the MPU 101 positions the text of the sentence and the text of the title separately from the frame on which the through image of the display panel 111 is displayed (for example, the left side of the screen. (Step S20).

ステップS19又はステップS20の後、MPU101は、ユーザによる操作部102の操作によって、テキストの位置の変更操作や、テキストの縦書き表示と横書き表示の切替操作、テキストの表示色変更操作等のテキストに係る何らかの変更操作がなされたか否かを判定する(ステップS21)。この変更操作は、それぞれの変更操作を行うための専用の操作部材を操作部102に設けるようにしても良いし、例えばデジタルカメラのメニュー画面内にテキストの変更を行うための項目を設定しておくようにしても良い。ステップS21の判定において、変更操作がなされていない場合に、MPU101はステップS23の処理を行う。一方、ステップS21の判定において、変更操作がなされた場合に、MPU101は、ユーザからの操作指示に従ってテキストの表示位置や表示色、或いはテキストの縦書き表示や横書き表示の切替を行う(ステップS22)。このようにして、ユーザは、記録時に合成されるテキストの位置や効果を確認しながら撮影を楽しむことができる。   After step S19 or step S20, the MPU 101 converts the text position into an operation such as a text position changing operation, a text vertical writing display / horizontal writing display switching operation, a text display color changing operation, and the like. It is determined whether or not any such change operation has been performed (step S21). For this change operation, a dedicated operation member for performing each change operation may be provided in the operation unit 102. For example, an item for changing text may be set in the menu screen of the digital camera. You may make it leave. When the change operation is not performed in the determination in step S21, the MPU 101 performs the process in step S23. On the other hand, when the change operation is performed in the determination of step S21, the MPU 101 switches the display position and display color of the text, or the vertical writing display and the horizontal writing display of the text according to the operation instruction from the user (step S22). . In this way, the user can enjoy shooting while confirming the position and effect of the text to be combined during recording.

その後、MPU101は、ユーザによる操作部102の操作によって表示パネル111に表示させるセンテンスのテキストの切替操作がなされたか否かを判定する(ステップS23)。ステップS23の判定において、テキストの切替操作がなされていない場合には、ステップS11に戻り、MPU101は、ユーザによって撮影指示がなされたか否かを再び判定する。一方、ステップS23の判定において、テキストの切替操作がなされた場合に、MPU101は、表示パネル111に表示させるセンテンスのテキストを次のテキストに切り替えた後(ステップS24)、ステップS11に戻る。なお、すべてのセンテンスのテキストを表示させた後は、最初のテキストを再び表示させるようにしても良いし、テキストの表示を終了させるようにしても良い。   After that, the MPU 101 determines whether or not a text text switching operation to be displayed on the display panel 111 is performed by the operation of the operation unit 102 by the user (step S23). If it is determined in step S23 that the text switching operation has not been performed, the process returns to step S11, and the MPU 101 determines again whether or not a shooting instruction has been given by the user. On the other hand, when the text switching operation is performed in the determination in step S23, the MPU 101 switches the sentence text to be displayed on the display panel 111 to the next text (step S24), and then returns to step S11. Note that after the text of all sentences is displayed, the first text may be displayed again, or the text display may be terminated.

また、ステップS11の判定において、撮影指示がなされた場合に、MPU101は、撮影動作を開始させ、画像データを取得する(ステップS25)。撮影動作の終了後、MPU101は、撮影指示がなされた時点でセンテンスのテキストが表示されていたか否かを判定することにより、撮影動作によって得られた画像データにセンテンス及びタイトルのテキストデータを合成するか否かを判定する(ステップS26)。ステップS26の判定において、テキストデータを合成する場合に、MPU101は、テキスト合成回路112により、センテンス及びタイトルのテキストデータを画像データに合成してから記録メディア117に記録させる(ステップS27)。なお、テキストの合成位置及びテキストの色、テキストを縦書きとするか横書きとするか等はスルー画表示時にユーザによって設定されたものが適用される。一方、ステップS26の判定において、テキストデータを合成しない場合に、MPU101は、画像データのみを記録メディア117に記録させる(ステップS28)。画像データを記録メディア117に記録させた後、MPU101は図5の処理を終了させる。   Further, in the determination in step S11, when a shooting instruction is given, the MPU 101 starts a shooting operation and acquires image data (step S25). After the photographing operation is finished, the MPU 101 determines whether or not the sentence text is displayed at the time when the photographing instruction is given, thereby synthesizing the sentence and title text data with the image data obtained by the photographing operation. It is determined whether or not (step S26). In the determination of step S26, when combining text data, the MPU 101 causes the text combining circuit 112 to combine the text data of the sentence and the title with the image data and then record them on the recording medium 117 (step S27). Note that the text composition position, text color, and whether the text is written vertically or horizontally are set by the user at the time of through image display. On the other hand, if the text data is not synthesized in the determination in step S26, the MPU 101 records only the image data on the recording medium 117 (step S28). After the image data is recorded on the recording medium 117, the MPU 101 ends the process of FIG.

また、ステップS12の判定において、画像の再生指示がなされた場合に、MPU101はユーザによって選択された画像データを圧縮/伸張部115を介して伸張し、伸張した画像を表示パネル111に表示させる(ステップS29)。   In the determination of step S12, when an image reproduction instruction is issued, the MPU 101 expands the image data selected by the user via the compression / expansion unit 115 and causes the display panel 111 to display the expanded image ( Step S29).

以上説明したように、本実施形態によれば、文芸書のタイトルを入力するだけで、撮影がなされる可能性の高い被写体に関するセンテンスがその文芸書から抽出される。撮影時には、サーバから抽出されたセンテンスの中から所望のものを選択するだけでユーザが撮影しようとしている画像にテキストが合成されて記録メディア117に記録される。これにより、画像とテキストが合成されたコンテンツを簡単に作成することができる。また、文芸書がガイドブックのようなものだと道順に沿った記述がなされることが多い。したがって、本実施形態のようにセンテンスのテキストを文芸書に出てきた順番で表示させることで、ユーザはその順番で撮影をしていけば、詳細な計画を立てずに旅に出ても、効率よく観光地を回ることができる。このように同じ文芸書中のセンテンスに従って撮影を行えば、一貫したテーマで画像の撮影を行うことができ、より見ごたえのあるコンテンツを作成することができる。   As described above, according to the present embodiment, just by inputting the title of a literary book, a sentence related to a subject that is likely to be photographed is extracted from the literary book. At the time of shooting, the text is synthesized with the image that the user is about to shoot by simply selecting a desired sentence from the sentences extracted from the server and recorded on the recording medium 117. As a result, it is possible to easily create content in which an image and text are combined. Also, if the literary book is like a guide book, it is often written along the route. Therefore, by displaying the sentence text in the order in which it appeared in the literary book as in this embodiment, if the user shoots in that order, even if he goes on a trip without making a detailed plan, You can travel around sightseeing spots efficiently. If shooting is performed in accordance with the sentences in the same literary book in this way, images can be shot with a consistent theme, and more impressive content can be created.

また、人物の顔がある場合には顔の部分を避けるようにしたり、背景にテキストが同化しないようにテキストの色を変更したり、画面の向きに応じてテキストの向きを変更することで、ユーザは必ずしもテキストの位置や色のことを考慮しなくともコンテンツを作成することが可能である。   Also, if there is a person's face, avoid the face part, change the color of the text so that the text is not assimilated in the background, or change the direction of the text according to the orientation of the screen, The user can create content without necessarily considering the position and color of the text.

ここで、上述した実施形態においては、センテンスのテキストとともに文芸書のタイトルを画像に合成しているが、著者名も併せて合成するようにしても良い。また、上述した実施形態では、センテンスのテキストとタイトルのテキストとを一体として合成するようにしているが、タイトルのテキストは最初のセンテンスのみに合成するようにしても良い。   Here, in the embodiment described above, the title of the literary book is combined with the image together with the sentence text, but the author name may also be combined. In the above-described embodiment, the sentence text and the title text are synthesized as a unit. However, the title text may be synthesized only in the first sentence.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上述した実施形態においては文芸書の文書データからセンテンスのテキストデータを抽出する処理をサーバ300において行っているが、データベース400をデジタルカメラ100に持たせれば、デジタルカメラ100においてセンテンスのテキストデータの抽出を行うこともできる。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, in the above-described embodiment, processing for extracting sentence text data from document data of a literary book is performed in the server 300, but if the digital camera 100 is provided with the database 400, sentence text data is processed in the digital camera 100. Can also be extracted.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

本発明の一実施形態に係るカメラを含む通信システムの構成を示す図である。It is a figure which shows the structure of the communication system containing the camera which concerns on one Embodiment of this invention. センテンスのテキストデータの抽出について説明するための模式図である。It is a schematic diagram for demonstrating extraction of the text data of a sentence. 図3(a)は本発明の一実施形態に係るカメラの使用例を示す図であり、図3(b)はスルー画像とテキストとを表示パネル上の別部分に表示させる例を示す図であり、図3(c)はスルー画像にテキストを重畳させて表示パネルに表示させる例を示す図である。FIG. 3A is a diagram illustrating an example of use of a camera according to an embodiment of the present invention, and FIG. 3B is a diagram illustrating an example in which a through image and text are displayed in different parts on the display panel. FIG. 3C is a diagram showing an example in which text is superimposed on the through image and displayed on the display panel. 図1の通信システムにおけるサーバ側の制御について示すフローチャートである。It is a flowchart shown about the control by the side of the server in the communication system of FIG. 図1の通信システムにおけるデジタルカメラ側の制御について示すフローチャートである。3 is a flowchart illustrating control on the digital camera side in the communication system of FIG. 1.

符号の説明Explanation of symbols

100…デジタルカメラ、101…マイクロプロセッシングユニット(MPU)、102…操作部、103…撮影レンズ、104…オートフォーカス(AF)回路、105…絞り機構、106…絞り制御回路、107…撮像素子、108…アナログフロントエンド(AFE)回路、109…画像処理回路、110…表示制御回路、111…表示パネル、112…テキスト合成回路、113…距離検出回路、114…顔検出回路、115…圧縮/伸張部、116…記録制御部、116a…センテンスデータベース、117…記録メディア、118…通信部、119…補助光発光回路、300…サーバ、400…データベース、500…パーソナルコンピュータ(PC)   DESCRIPTION OF SYMBOLS 100 ... Digital camera, 101 ... Micro processing unit (MPU), 102 ... Operation part, 103 ... Shooting lens, 104 ... Auto-focus (AF) circuit, 105 ... Aperture mechanism, 106 ... Aperture control circuit, 107 ... Image sensor, 108 DESCRIPTION OF SYMBOLS ... Analog front end (AFE) circuit, 109 ... Image processing circuit, 110 ... Display control circuit, 111 ... Display panel, 112 ... Text composition circuit, 113 ... Distance detection circuit, 114 ... Face detection circuit, 115 ... Compression / decompression unit 116 ... Recording control unit, 116a ... Sentence database, 117 ... Recording medium, 118 ... Communication unit, 119 ... Auxiliary light emitting circuit, 300 ... Server, 400 ... Database, 500 ... Personal computer (PC)

Claims (7)

画像を取得する撮像部と、
文芸書のタイトルに応じた文芸書のテキストにおける、所定の特徴を有するキーワードを含むセンテンスを記録する記録部と、
上記センテンスと上記タイトルとを、上記画像に合成して表示する表示部と、
を具備することを特徴とするカメラ。
An imaging unit for acquiring an image;
A recording unit for recording a sentence including a keyword having a predetermined characteristic in the text of the literary book according to the title of the literary book;
A display unit configured to display the sentence and the title in combination with the image;
A camera comprising:
上記文芸書のタイトルを指定するための指定部と、
上記指定されたタイトルに応じた文芸書のテキストにおける、上記所定の特徴を有するキーワードを含むセンテンスを、ネットワークを介してサーバからダウンロードするダウンロード部と、
をさらに具備することを特徴とする請求項1に記載のカメラ。
A designation part for designating the title of the above literary book,
A download unit that downloads a sentence including a keyword having the predetermined characteristic in the text of the literary book according to the designated title from a server via a network;
The camera according to claim 1, further comprising:
上記カメラの姿勢を検出する姿勢検出部をさらに具備し、
上記表示部は、上記検出された姿勢に応じた向きで上記センテンスと上記タイトルとを上記画像に合成して表示することを特徴とする請求項1又は2に記載のカメラ。
It further comprises an attitude detection unit that detects the attitude of the camera,
The camera according to claim 1, wherein the display unit displays the sentence and the title combined with the image in an orientation corresponding to the detected posture.
上記画像内における人物の顔部を検出する顔検出部をさらに具備し、
上記表示部は、上記画像の、上記検出された顔部と重ならない位置に上記センテンスと上記タイトルとを合成して表示することを特徴とする請求項1又は2に記載のカメラ。
A face detection unit for detecting a human face in the image;
The camera according to claim 1, wherein the display unit synthesizes and displays the sentence and the title at a position in the image that does not overlap the detected face.
上記所定の特徴は、被写体の名称及び種類に関連する特徴であることを特徴とする請求項1乃至4の何れかに記載のカメラ。   The camera according to claim 1, wherein the predetermined feature is a feature related to a name and a type of a subject. 文芸書のタイトルに応じた文芸書のテキストから、所定の特徴を有するキーワードを含むセンテンスを抽出する工程と、
上記抽出したセンテンスと上記タイトルとを画像に合成する工程と、
上記合成した画像を表示する工程と、
を有することを特徴とするコンテンツ作成方法。
Extracting a sentence including a keyword having a predetermined characteristic from the text of the literary book according to the title of the literary book;
Synthesizing the extracted sentence and the title with an image;
Displaying the synthesized image; and
A content creation method characterized by comprising:
文芸書のタイトルに応じた文芸書のテキストから、所定の特徴を有するキーワードを含むセンテンスを抽出する手順と、
上記抽出したセンテンスと上記タイトルとを画像に合成する手順と、
上記合成した画像を表示する手順と、
をコンピュータに実行させるためのコンテンツ作成プログラム。
A procedure for extracting a sentence including a keyword having a predetermined characteristic from the text of a literary book according to the title of the literary book;
A procedure for combining the extracted sentence and the title with an image,
A procedure for displaying the synthesized image;
Content creation program that causes a computer to execute.
JP2007112132A 2007-04-20 2007-04-20 Camera, content creation method, and program Expired - Fee Related JP4889554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007112132A JP4889554B2 (en) 2007-04-20 2007-04-20 Camera, content creation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007112132A JP4889554B2 (en) 2007-04-20 2007-04-20 Camera, content creation method, and program

Publications (3)

Publication Number Publication Date
JP2008271239A true JP2008271239A (en) 2008-11-06
JP2008271239A5 JP2008271239A5 (en) 2010-05-27
JP4889554B2 JP4889554B2 (en) 2012-03-07

Family

ID=40050153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007112132A Expired - Fee Related JP4889554B2 (en) 2007-04-20 2007-04-20 Camera, content creation method, and program

Country Status (1)

Country Link
JP (1) JP4889554B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244330A (en) * 2009-04-07 2010-10-28 Nikon Corp Image performance program and image performance device
JP2011007868A (en) * 2009-06-23 2011-01-13 Daiichikosho Co Ltd Karaoke device displaying lyric subtitle while avoiding face image in background video image
JP2013078142A (en) * 2012-12-26 2013-04-25 Olympus Imaging Corp Display method of photographing system
JP2019205111A (en) * 2018-05-25 2019-11-28 セイコーエプソン株式会社 Image processing apparatus, robot, and robot system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001326846A (en) * 2000-05-16 2001-11-22 Fuji Photo Film Co Ltd Image pickup device and its control method
JP2003111009A (en) * 2001-09-28 2003-04-11 Fuji Photo Film Co Ltd Electronic album editing device
JP2004023681A (en) * 2002-06-20 2004-01-22 Nikon Gijutsu Kobo:Kk Auxiliary device for haiku and storage medium
WO2006080342A1 (en) * 2005-01-31 2006-08-03 Matsushita Electric Industrial Co., Ltd. Imaging device, printing system and printing device, image printing method, and recording medium recorded with control program for the method
JP2007018481A (en) * 2005-06-10 2007-01-25 Make Softwear:Kk Image editing apparatus, image editing method, image editing program and automatic photographing apparatus
JP2007047962A (en) * 2005-08-09 2007-02-22 Seiko Epson Corp Editing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001326846A (en) * 2000-05-16 2001-11-22 Fuji Photo Film Co Ltd Image pickup device and its control method
JP2003111009A (en) * 2001-09-28 2003-04-11 Fuji Photo Film Co Ltd Electronic album editing device
JP2004023681A (en) * 2002-06-20 2004-01-22 Nikon Gijutsu Kobo:Kk Auxiliary device for haiku and storage medium
WO2006080342A1 (en) * 2005-01-31 2006-08-03 Matsushita Electric Industrial Co., Ltd. Imaging device, printing system and printing device, image printing method, and recording medium recorded with control program for the method
JP2007018481A (en) * 2005-06-10 2007-01-25 Make Softwear:Kk Image editing apparatus, image editing method, image editing program and automatic photographing apparatus
JP2007047962A (en) * 2005-08-09 2007-02-22 Seiko Epson Corp Editing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244330A (en) * 2009-04-07 2010-10-28 Nikon Corp Image performance program and image performance device
JP2011007868A (en) * 2009-06-23 2011-01-13 Daiichikosho Co Ltd Karaoke device displaying lyric subtitle while avoiding face image in background video image
JP2013078142A (en) * 2012-12-26 2013-04-25 Olympus Imaging Corp Display method of photographing system
JP2019205111A (en) * 2018-05-25 2019-11-28 セイコーエプソン株式会社 Image processing apparatus, robot, and robot system
US11712807B2 (en) 2018-05-25 2023-08-01 Seiko Epson Corporation Image processing apparatus, robot and robot system

Also Published As

Publication number Publication date
JP4889554B2 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
WO2012167238A1 (en) Recording, editing and combining multiple live video clips and still photographs into a finished composition
US20130100329A1 (en) Image pickup apparatus
JP2007027945A (en) Photographing information presenting system
JP2009141516A (en) Image display device, camera, image display method, program, image display system
JP4901258B2 (en) Camera and data display method
JP4889554B2 (en) Camera, content creation method, and program
WO2016208070A1 (en) Imaging device and image processing method
JP2007164269A (en) Retrieval device, retrieval/reproducing device, and image reproducing device
JP6043753B2 (en) Content reproduction system, server, portable terminal, content reproduction method, program, and recording medium
JP5047592B2 (en) Sentence publishing device with image, program, and method
JP2008066886A (en) Camera, communication control device, photography technical assistance system, photography technical assistance method, program
JP2008078836A (en) Camera, blog search system, and program
JP4981514B2 (en) Camera and image recording method
JP6166070B2 (en) Playback apparatus and playback method
JP6508635B2 (en) Reproducing apparatus, reproducing method, reproducing program
JP5329691B2 (en) Camera and camera control method
JP5372219B2 (en) Camera with image transmission function and image transmission method
JP6916342B2 (en) Imaging device and image processing method
JP7362696B2 (en) Imaging device
JP6977847B2 (en) Image management device, image management method and program
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method
JP2010045435A (en) Camera and photographing system
JP2008289067A (en) Imaging device, and image providing system and method
JP5657753B2 (en) Camera with image transmission function, display control method, and image transmission method
JP5603979B2 (en) Server and server image transmission method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111213

R150 Certificate of patent or registration of utility model

Ref document number: 4889554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees