JP2008271239A - Camera, content creation method, and program - Google Patents
Camera, content creation method, and program Download PDFInfo
- Publication number
- JP2008271239A JP2008271239A JP2007112132A JP2007112132A JP2008271239A JP 2008271239 A JP2008271239 A JP 2008271239A JP 2007112132 A JP2007112132 A JP 2007112132A JP 2007112132 A JP2007112132 A JP 2007112132A JP 2008271239 A JP2008271239 A JP 2008271239A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sentence
- text
- title
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、画像とテキストとが一体となったコンテンツを楽しめるカメラ、コンテンツ作成方法、及びプログラムに関する。 The present invention relates to a camera that can enjoy content in which an image and text are integrated, a content creation method, and a program.
近年、ネットワーク環境の充実によって各種のネットワークサービスが拡充されている。このようなサービスによって、ユーザは画像なり、エッセイ等のテキストなりといったコンテンツをアップロードし、アップロードされたコンテンツを不特定多数の閲覧者に鑑賞してもらえる楽しみ方が一般的になってきている。こうしたコンテンツはコンシューマでありながら発信者でもある人が作るもので、コンシューマジェネレーテッドメディア(CGM)等と呼ばれている。このようなコンテンツは発信者が初心者である場合に玉石混交の内容となりやすいので、こうしたユーザのモチベーションを維持しつつ、魅力的なコンテンツを作成できるシステムが望まれてきている。 In recent years, various network services have been expanded due to the enhancement of the network environment. With such a service, it has become common for users to upload content such as images and texts such as essays, and to enjoy the uploaded content by an unspecified number of viewers. Such content is created by a person who is both a consumer and a sender, and is called consumer generated media (CGM) or the like. Since such content tends to be mixed with cobblestones when the caller is a beginner, a system capable of creating attractive content while maintaining such user motivation has been desired.
また、近年では、画像のみやテキストのみではなく、これらが有機的に結合されたコンテンツが求められている。 In recent years, not only images and text but also contents in which these are organically combined have been demanded.
このような複数のコンテンツを有機的に結合させる技術として、例えば特許文献1においては写真と俳句とを関連付ける技術が提案されている。この特許文献1の手法は、画像管理を、俳句を使って行うものであり、従来のシステムでは、各撮影画像についての所望の全文字列情報を一々ユーザ自身が考えて書き込んで対応付けし、写真集として保存したり記録したりするのが非常に面倒であるところを、得られた画像に対して当該画像に応じた文字列情報を簡単に対応付けして管理することが可能である。 As a technique for organically combining such a plurality of contents, for example, Patent Document 1 proposes a technique for associating a photograph with a haiku. The method of this patent document 1 performs image management using haiku, and in the conventional system, the user writes and associates all desired character string information for each captured image one by one, Where it is very troublesome to store and record as a photo book, it is possible to manage the obtained image by simply associating the character string information corresponding to the image with the obtained image.
また、特許文献2においてはデータベースより通信手段を介して、撮影する被写体に対応したカメラの設定データや撮影ガイドを表示させることにより、確実な撮影が行えるようにしている。
ここで、特許文献1は画像の整理に力点が置かれており、特許文献2は撮影を確実に行うことに力点が置かれており、魅力的なコンテンツの作成を促すものではない。
Here, Patent Document 1 focuses on organizing images, and
本発明は、上記の事情に鑑みてなされたもので、写真撮影になれていないユーザに写真を撮影するモチベーションを与え、同時に画像とテキストが調和した魅力的なコンテンツを作成することができるカメラ、コンテンツ作成方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a motivation to take a photograph to a user who is not photographed, and at the same time, can create attractive content in which images and text are harmonized, It is an object to provide a content creation method and program.
上記の目的を達成するために、本発明の第1の態様のカメラは、画像を取得する撮像部と、文芸書のタイトルに応じた文芸書のテキストにおける、所定の特徴を有するキーワードを含むセンテンスを記録する記録部と、上記センテンスと上記タイトルとを、上記画像に合成して表示する表示部とを具備することを特徴とする。 In order to achieve the above object, a camera according to a first aspect of the present invention includes an imaging unit that acquires an image, and a sentence including a keyword having a predetermined characteristic in the text of a literary book according to the title of the literary book. And a display unit for combining and displaying the sentence and the title on the image.
また、上記の目的を達成するために、本発明の第2の態様のコンテンツ作成方法は、文芸書のタイトルに応じた文芸書のテキストから、所定の特徴を有するキーワードを含むセンテンスを抽出する工程と、上記抽出したセンテンスと上記タイトルとを画像に合成する工程と、上記合成した画像を表示する工程とを有することを特徴とする。 In order to achieve the above object, the content creation method according to the second aspect of the present invention includes a step of extracting a sentence including a keyword having a predetermined characteristic from the text of a literary book according to the title of the literary book. And a step of combining the extracted sentence and the title with an image, and a step of displaying the combined image.
さらに、上記の目的を達成するために、本発明の第3の態様のコンテンツ作成プログラムは、文芸書のタイトルに応じた文芸書のテキストから、所定の特徴を有するキーワードを含むセンテンスを抽出する手順と、上記抽出したセンテンスと上記タイトルとを画像に合成する手順と、上記合成した画像を表示する手順とをコンピュータに実行させる。 Furthermore, in order to achieve the above object, the content creation program according to the third aspect of the present invention is a procedure for extracting a sentence including a keyword having a predetermined characteristic from text of a literary book according to the title of the literary book. And a procedure for synthesizing the extracted sentence and the title to an image and a procedure for displaying the synthesized image.
本発明によれば、写真撮影になれていないユーザに写真を撮影するモチベーションを与え、同時に画像とテキストが調和した魅力的なコンテンツを作成することができるカメラ、コンテンツ作成方法、及びプログラムを提供することができる。 According to the present invention, there are provided a camera, a content creation method, and a program capable of giving a motivation to take a photograph to a user who is not photographed and at the same time creating attractive content in which images and text are harmonized. be able to.
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の一実施形態に係るカメラを含む通信システムの構成を示す図である。図1に示す通信システムは、本発明の一実施形態に係るカメラの一例であるデジタルカメラ100と、サーバ300と、データベース400と、パーソナルコンピュータ(PC)500とを有し、これらが互いにデータ通信自在に接続されて構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a communication system including a camera according to an embodiment of the present invention. The communication system shown in FIG. 1 includes a
図1に示すデジタルカメラ100は、マイクロプロセッシングユニット(MPU)101と、操作部102と、撮影レンズ103と、オートフォーカス(AF)回路104と、絞り機構105と、絞り制御回路106と、撮像素子107と、アナログフロントエンド(AFE)回路108と、画像処理回路109と、表示制御回路110と、表示パネル111と、テキスト合成回路112と、距離検出回路113と、顔検出回路114と、圧縮/伸張部115と、記録制御部116と、記録メディア117と、通信部118と、補助光発光回路119とを有して構成されている。
A
MPU101は、ユーザからの操作部102の操作に応じてデジタルカメラ100を構成する各ブロックを所定のプログラムに従ってシーケンシャルに制御する。操作部102は、デジタルカメラ100による撮影を実行させるためのレリーズスイッチや、デジタルカメラ100の動作モード撮影モード、再生モード等に切り替えるための切り替えスイッチ、構図確認時に文芸書から抽出されたセンテンスを表示パネル111に表示させるためのスイッチ等が含まれる。また、後述するタイトルの入力をデジタルカメラ100から行う場合には、操作部102として文字を入力するための操作部も含まれる。
The MPU 101 sequentially controls each block constituting the
また、MPU101は、ユーザによって写真撮影がなされた時刻を計測するためのタイマを有している。これにより、撮影によって得られる画像データに対して撮影時刻が関連付けられる。 The MPU 101 also has a timer for measuring the time when the user took a picture. Thereby, the photographing time is associated with the image data obtained by photographing.
撮影レンズ103は、被写体200からの像を撮像素子107に結像させる。この撮影レンズ103は、オートフォーカス(ピント合わせ)用のレンズを含んでいる。オートフォーカスの際に、MPU101は、ピント合わせレンズのレンズ位置をモニタしつつ、AF回路104を制御してピント合わせレンズのレンズ位置を切り替えて撮影レンズ103のピント合わせを行う。また、撮影レンズ103にズームレンズが含まれている場合にはズームレンズの位置を切り替えることで撮影時の画角を切り替えることもできる。
The taking lens 103 forms an image from the
絞り機構105は、撮影レンズ103内又はその近傍に設けられ、シャッタや絞りの効果を奏する機構である。絞り機構105は、撮影開始時に絞り制御回路106によって所定の口径まで開かれ、撮影終了時に閉じられるものである。撮影時の絞り機構105の口径を変えることによって、撮影レンズ103の被写界深度が変化する。これによって、背景被写体のぼけ具合等を調整して、撮影時に主要被写体を浮かび上がらせたり、背景被写体をしっかりと描写したりするなどの表現の切替を行うことができる。
The
撮像素子107は、多数の画素が配列されて構成される受光面を有し、撮影レンズ103を介して受光した被写体200からの像を電気的な信号に変換する。本実施形態においては、撮像素子107にはCCD方式及びCMOS方式の何れを用いても良い。
The image sensor 107 has a light receiving surface configured by arranging a large number of pixels, and converts an image from the
AFE回路108は、CDS回路、ゲイン調整回路、AD変換回路等を含み、撮像素子107において得られるアナログ電気信号に対し相関二重サンプリング処理、ゲイン調整処理といったアナログ処理を行った後、これによって得られる画像信号をデジタルデータ化して画像処理回路109に入力する。また、AFE回路108には、撮像素子107を構成する複数の画素からの信号を一括して読み出す機能も設けられている。例えば、AFE回路108によって、4画素(2×2画素)や9画素(3×3画素)の信号をまとめて読み出し、これら読み出した電気信号を加算することでS/Nを向上させることができる。このような処理によって、撮像素子107の見かけ上の感度を上げること等ができる。
The AFE circuit 108 includes a CDS circuit, a gain adjustment circuit, an AD conversion circuit, and the like, and is obtained by performing analog processing such as correlated double sampling processing and gain adjustment processing on the analog electric signal obtained in the image sensor 107. The obtained image signal is converted into digital data and input to the
さらに、AFE回路108は、撮像素子107からの出力信号を取捨選択する機能も有し、撮像素子107の全有効画素のうち、限られた範囲の画素からの信号のみを抽出することもできる。一般に、撮像素子107は間引きを行うことで高速で信号を読み出すことができる。この機能を利用して、撮像素子107で構図確認用に得られたスルー画像を高速で読み出して画像処理回路109において処理してから表示パネル111に表示すれば、ユーザは表示パネル111上に表示される画像を利用してフレーミングを行うことが可能である。
Further, the AFE circuit 108 also has a function of selecting an output signal from the image sensor 107, and can extract only signals from pixels in a limited range among all effective pixels of the image sensor 107. In general, the image sensor 107 can read signals at high speed by performing thinning. By using this function, a through image obtained for composition confirmation by the image sensor 107 is read at high speed, processed in the
画像処理回路109は、AFE回路108から入力される画像データにおける色や階調、シャープネス等を補正処理したり、画像データのレベルを所定のレベルに増幅して、正しい濃淡及び正しい灰色レベルに調整したりする各種画像処理を行う。
The
また、上述したようなフレーミング用のスルー画像等の各種の画像を表示するために、画像処理回路109は、AFE回路108から入力される画像データを表示パネル111に表示可能なようにリサイズ(縮小)する機能も有する。
In addition, in order to display various images such as the framing through image as described above, the
表示制御回路110は、画像処理回路109で得られた画像データや記録メディア117に記録されている画像データを映像信号に変換し、表示パネル111に表示させる。表示部としての表示パネル111は液晶表示パネルや有機EL表示パネル等の表示パネルである。また、表示制御回路110は、表示パネル111に複数の画像を重畳して表示させるマルチ画面表示機能も有している。このマルチ画面表示機能によって、撮影した画像や撮影する画像の上に、モード設定の文字表示やいろいろな警告表示を重畳表示することも可能である。
The
テキスト合成回路112は、画面内の所定位置に小説などの一節(センテンス)のテキストが表示されるように画像処理回路109によって得られる画像データにテキストデータを合成する。このテキスト合成の詳細については後述する。
The text synthesizing
距離検出回路113は、画像処理回路109によって得られる画像のコントラストを検出する。この距離検出回路113によって検出されるコントラストはオートフォーカスの際に用いられる。即ち、AF回路104によって撮影レンズ103のピント合わせレンズのレンズ位置を変化させながら、距離検出回路113によって画像のコントラストを逐次検出し、検出されるコントラストが最大となるレンズ位置でピント合わせレンズを停止させることで、撮影レンズ103のピント合わせを行うことができる。
The
顔検出回路114は、画像処理回路109によって得られる画像内の特徴点(例えば、主要被写体が人物等であれば、目や鼻、口等)の分布から、主要被写体の特に顔を検出する。
The
圧縮/伸張部115は、撮影時に、画像処理回路109において処理された画像データを圧縮するとともに、再生時に記録制御部116を介して記録メディア117から読み出した画像データを伸張する。
The compression /
記録制御部116は、圧縮/伸張部115で圧縮された画像データに付随データを付随させて記録メディア117に記録する。また、記録制御部116は、後述するテキスト合成に用いられるテキストを格納する記録部としてのセンテンスデータベース116aを有している。このセンテンスデータベース116aの内容は、カメラ製造時に記録してもよいが、デジタルカメラ100外部のサーバ300等からネットワーク経由で書き換えることができる。
The
通信部118は、記録メディア117に記録された画像データ等をデジタルカメラ100外部のサーバ300等に送信したり、サーバ300等から各種の情報を受信したりする際の通信制御を行う。この通信部118によって、デジタルカメラ100で撮影した画像を他の人に転送したり、ネットワーク上のサービス(例えば、ネットワーク接続されたサイト等と連携したサービス)を利用して、情報を付加したり、受信したりすることができる。
The communication unit 118 performs communication control when transmitting image data or the like recorded on the
補助光発光回路119は、撮影時の状況に応じて被写体200に補助光を照射する。これによって、撮影時の明るさの不足や不均一を防止する。この補助光発光回路119の動作を、ユーザが操作部102を操作してマニュアルで制御できるようにしても良い。
The auxiliary
サーバ300は、例えばブログやSNS(Social Networking Service)等のCGM(Consumer Generated Media)を管理するサーバを想定している。このサーバ300は、制御部301と、通信部302と、記録部303とを有している。制御部301は、記録部303に記録されたコンテンツをPC500やデジタルカメラ100に表示させる機能や、データベース400の文書データベース401に記録されている文書データから所定のセンテンスのテキストデータを抽出する機能等の、サーバ300における各種の動作を制御する。通信部302は、サーバ300が、デジタルカメラ100、データベース400、PC500とデータ通信する際の通信制御を行う。記録部303は、デジタルカメラ100から送信されてきた画像データ等の各種コンテンツを記録する。
The
データベース400は、サーバ300によって参照される各種のデータを記録する。データベース400は、文書データベース401と、被写体データベース402とを有している。文書データベース401は、文芸書のタイトルとその文芸書の内容を示す文書データとを対応付けて記録する。被写体データベース402は、文書データ中から所定のセンテンスを抽出するための被写体の種類、名称等を示すキーワードをテキストデータとして記録する。このキーワードとしては、撮影場所の位置情報、撮影時間や時期、季節に関するもの等も含まれる。また、具体的な固有名詞(例えば富士山、日本海等)や自然を表わす所謂山川草木、花鳥風月に関する語句、及び俳句の季語や季題等も含まれる。
The
PC500は、ウェブページをブラウジングするためのソフトウェアがインストールされ、ウェブページ上で各種の操作を行うためのマウスやキーボードといった操作部や液晶ディスプレイ等の表示部を有するコンピュータである。
The
以上のような構成の通信システムにおいて、ユーザが感銘を受けた小説やエッセイなど(以下、文芸書と記す)のタイトルを、例えばPC500を介してサーバ300に入力する。なお、タイトルの入力はデジタルカメラ100を介して行えるようにしても良い。タイトルが入力されると、サーバ300の制御部301は、そのタイトルの文書データを文書データベース401から読み出して、その文書データ中に含まれる各センテンスをくまなく調べ、所定の決まりでセンテンスのテキストデータを抽出し、抽出したセンテンスのテキストデータをデジタルカメラ100のセンテンスデータベース116aに送って記録させる。センテンスのテキストデータの抽出の際の所定の決まりとは、そのセンテンスが被写体データベース402に記録されているキーワードを含んでいるか否かであり、制御部301は文書データの中から被写体データベース402に記録されているキーワードを含むセンテンスのテキストデータを抽出する。
In the communication system configured as described above, the title of a novel or essay (hereinafter referred to as a literary book) that the user has been impressed by is input to the
以下、図2の模式図を用いてセンテンスのテキストデータの抽出についてさらに説明する。ユーザによって文芸書のタイトルが入力されると、そのタイトルの文書データが文書データベース401から検索される。文書データベース401から該当する文書データが検索されると、制御部301は、文書データと被写体データベース402に記録されているキーワードとの照合を行う。被写体データベース402には、自然(空、山、川、海等)、建造物(建物、店、像等)、動植物(花、木、鳥等)、機器(時計、机等)等の、画像撮影の際に被写体になりうるものの名称がキーワードとして記録されている。制御部301は、文書データ中から、これらのキーワードを含むセンテンスを抽出し、抽出したセンテンスのテキストデータを文芸書の中で出てきた順にデジタルカメラ100のセンテンスデータベース116aに送信する。デジタルカメラ100のMPU101はサーバ300から送信されてきたセンテンスデータを送信されてきた順にセンテンスデータベース116aに記録させる。
Hereinafter, extraction of sentence text data will be further described with reference to the schematic diagram of FIG. When the title of the literary book is input by the user, the document data of the title is retrieved from the
ここで、サーバ300からデジタルカメラ100にはセンテンスデータとともに文芸書のタイトルも送信することが望ましい。また、著者名等の文芸書に係る各種の情報も併せて送信するようにしても良い。
Here, it is desirable to transmit the title of the literary book from the
このようにしてデジタルカメラ100のセンテンスデータベース116aに記録されたセンテンスデータ等は撮影時に得られた画像データと合成されて記録される。例えば、図3(a)のように、ユーザが、写真撮影前のフレーミング時に、デジタルカメラ100に設けられたセンテンス表示スイッチ102aを操作すると、構図確認用のスルー画像とともにセンテンスデータベース116aに記録されたセンテンスのテキストが表示される。図3(b)及び図3(c)にセンテンスのテキストの表示例を示す。図3(b)は、構図確認用のスルー画像111aとセンテンスのテキスト111bとを表示パネル111上の別部分に表示させる例である。また、図3(b)においては、センテンスのテキスト111bに加えて、センテンスを引用した文芸書のタイトルのテキスト111cも表示させるようにしている。一方、図3(c)は、構図確認用のスルー画像111aに、センテンスのテキスト111bと文芸書のタイトルのテキスト111cとを重畳させて表示させる例である。ここで、図3(c)のように、テキストをスルー画像に重畳させて表示させる場合は、表示されたテキストが構図の確認の妨げとならないようにすることが好ましい。この手法については後述する。
The sentence data and the like recorded in the
ユーザが図3(b)や図3(c)のような画像が表示されている状態で撮影操作を行うことにより、撮影により得られた画像データにセンテンスのテキストデータ及びタイトルのテキストデータが合成されて記録メディア117に記録される。
When the user performs a shooting operation in a state where an image as shown in FIG. 3B or 3C is displayed, the text data of the sentence and the text data of the title are combined with the image data obtained by shooting. And recorded on the
このような動作によって、ユーザは、テキストと画像のバランスを取った撮影が可能となる。また、撮影後に、テキストを引用する必要なく、撮影時にそれを確認しながら撮影を楽しむことができる。 By such an operation, the user can take a picture with a balance between the text and the image. In addition, it is not necessary to quote text after shooting, and it is possible to enjoy shooting while confirming it at the time of shooting.
以下、図4及び図5を参照して図1の通信システムを用いたコンテンツの作成方法の流れについて説明する。 Hereinafter, a flow of a content creation method using the communication system of FIG. 1 will be described with reference to FIGS. 4 and 5.
図4は、図1の通信システムにおけるサーバ300側の制御について示すフローチャートである。図4において、サーバ300の制御部301は、ユーザによるPC500等の操作(デジタルカメラ100からの操作であっても良い)によって文芸書のタイトルが入力されたか否かを判定している(ステップS1)。ステップS1の判定において、文芸書のタイトルが入力された場合に、制御部301は、文芸書のタイトルに対応した文書データを文書データベース401から検索し、検索した文書データと被写体データベース402のキーワードデータとを比較してキーワードを含むセンテンス(例えば1文)を抽出する(ステップS2)。そして、制御部301は、抽出した順(即ち、センテンスが文書中に出てきた順)に、センテンスのテキストデータ及びタイトルのテキストデータをデジタルカメラ100に送信する(ステップS3)。その後に、制御部301は、図4の処理を終了させる。このようにしてセンテンスのテキストデータ及びタイトルのテキストデータはデジタルカメラ100のセンテンスデータベース116aに記録される。文書量が多い場合であっても、抽出されるセンテンスは短いので、デジタルカメラ100に記録される容量を少なくすることができる。なお、上述したように、センテンス及びタイトルのテキストデータに加えて著者名のテキストデータも合わせて記録させるようにしてもよい。
FIG. 4 is a flowchart showing control on the
一方、ステップS1の判定において、文芸書のタイトルの入力がなされていない場合に、制御部301は、ユーザによるPC500等の操作によってコンテンツの再生指示がなされたか否かを判定する(ステップS4)。そして、ステップS4の判定において、コンテンツの再生指示がなされた場合に、制御部301は、記録部303に記録されている画像等のコンテンツを再生する(ステップS5)。その後に制御部301は、図4の処理を終了させる。一方、ステップS4の判定において、コンテンツの再生指示がなされていない場合に、制御部301は、センテンスの抽出やコンテンツの再生を行わずに、図4の処理を終了させる。
On the other hand, when the title of the literary book has not been input in the determination in step S1, the
図5は、図1の通信システムにおけるデジタルカメラ100側の制御について示すフローチャートである。
FIG. 5 is a flowchart showing control on the
デジタルカメラ100のMPU101は、ユーザにより操作部102のレリーズスイッチが操作されたか否かを判定することにより、撮影指示がなされたか否かを判定している(ステップS11)。ステップS11の判定において、撮影指示がなされていない場合に、MPU101は、ユーザにより操作部102の操作により再生指示がなされたか否かを判定する(ステップS12)。ステップS12の判定において、再生指示がなされていない場合に、MPU101は、ユーザによる操作部102の操作により、スルー画表示指示がなされたか否かを判定する(ステップS30)。ステップS30の判定において、スルー画表示指示がなされた場合に、MPU101は、フレーミング用のスルー画表示を開始させる(ステップS13)。一方、ステップS30の判定において、スルー画表示指示がなされていない場合に、MPU101は、サーバ300からデータの送信があるか否かを判定する(ステップS31)。
The
ステップS31の判定において、サーバ300からのデータ送信がある場合に、MPU101は、通信部118を介してセンテンス及びタイトルのテキストデータを受信する(ステップS32)。そして、データ受信がすべて完了すると、処理がステップS11に戻る。なお、通信部118を介して受信されたセンテンス及びタイトルのテキストデータはセンテンスデータベース116aに記憶される。
When it is determined in step S31 that there is data transmission from the
スルー画表示の開始後、MPU101は、ユーザによるセンテンス表示スイッチ102aの操作がなされたか否かを判定することにより、センテンスのテキストの表示指示がなされたか否かを判定する(ステップS14)。ステップS14の判定において、センテンスのテキストの表示指示がなされていない場合には、ステップS11に戻り、MPU101はユーザによって撮影指示がなされたか否かを再び判定する。一方、ステップS14の判定において、センテンスのテキストの表示指示がなされた場合に、MPU101は画面の縦横判定を行う(ステップS15)。これは、センテンスのテキストをユーザが正しく読めるように表示させるための処理であり、例えば、日中や照明下の撮影ではスルー画表示されている画像中の明るい部分を検出し、この明るい部分を画面の上と判定する。また、顔検出回路114によって顔検出を行い、この顔の向きから画面の縦横を判定するようにしても良い。あるいは、角速度センサ等を用いてデジタルカメラ100の姿勢(縦位置で構えられているか正位置で構えられているか)を検出することにより、画面の縦横を判定するようにしても良い。
After starting the live view display, the
画面の縦横判定の終了後、MPU101は、顔検出回路114による顔検出を行う(ステップS16)。なお、ステップS15の画面の縦横判定時に顔検出を行っている場合にはステップS16の処理を省略することもできる。ステップS16の後、MPU101は顔検出回路114によって画像内に顔が検出されたか否かを判定する(ステップS17)。
After completing the vertical / horizontal determination of the screen, the
ステップS17の判定において、顔が検出された場合には、図3(c)のような表示を行う。この場合には、顔部にテキストが表示されるのを避けるためにMPU101は、センテンスのテキスト及びタイトルのテキストの表示位置を、ステップS16で検出された顔位置以外の位置に設定するとともにテキストの向きを縦横判定によって判定された画面の向きに応じて設定する(ステップS18)。また、図3(c)のような表示の場合には、テキストが背景に埋もれてしまう可能性があるので、MPU101はテキストの表示色を、テキストの表示位置における背景の補色に設定し、センテンスのテキスト及びタイトルのテキストをスルー画像とともに表示パネル111に表示させる(ステップS19)。
If a face is detected in the determination in step S17, a display as shown in FIG. In this case, in order to avoid displaying the text on the face, the
また、ステップS17の判定において、顔が検出されなかった場合には、図3(b)のようにスルー画像とは別枠の位置にテキストを表示させる。即ち、MPU101は、センテンスのテキスト及びタイトルのテキストを表示パネル111のスルー画像が表示される枠とは別枠の位置(例えば画面左側。スルー画像と別枠の位置であれば画面左側でなくとも良い)に表示させる(ステップS20)。
If no face is detected in the determination in step S17, the text is displayed at a position different from the through image as shown in FIG. That is, the
ステップS19又はステップS20の後、MPU101は、ユーザによる操作部102の操作によって、テキストの位置の変更操作や、テキストの縦書き表示と横書き表示の切替操作、テキストの表示色変更操作等のテキストに係る何らかの変更操作がなされたか否かを判定する(ステップS21)。この変更操作は、それぞれの変更操作を行うための専用の操作部材を操作部102に設けるようにしても良いし、例えばデジタルカメラのメニュー画面内にテキストの変更を行うための項目を設定しておくようにしても良い。ステップS21の判定において、変更操作がなされていない場合に、MPU101はステップS23の処理を行う。一方、ステップS21の判定において、変更操作がなされた場合に、MPU101は、ユーザからの操作指示に従ってテキストの表示位置や表示色、或いはテキストの縦書き表示や横書き表示の切替を行う(ステップS22)。このようにして、ユーザは、記録時に合成されるテキストの位置や効果を確認しながら撮影を楽しむことができる。
After step S19 or step S20, the
その後、MPU101は、ユーザによる操作部102の操作によって表示パネル111に表示させるセンテンスのテキストの切替操作がなされたか否かを判定する(ステップS23)。ステップS23の判定において、テキストの切替操作がなされていない場合には、ステップS11に戻り、MPU101は、ユーザによって撮影指示がなされたか否かを再び判定する。一方、ステップS23の判定において、テキストの切替操作がなされた場合に、MPU101は、表示パネル111に表示させるセンテンスのテキストを次のテキストに切り替えた後(ステップS24)、ステップS11に戻る。なお、すべてのセンテンスのテキストを表示させた後は、最初のテキストを再び表示させるようにしても良いし、テキストの表示を終了させるようにしても良い。
After that, the
また、ステップS11の判定において、撮影指示がなされた場合に、MPU101は、撮影動作を開始させ、画像データを取得する(ステップS25)。撮影動作の終了後、MPU101は、撮影指示がなされた時点でセンテンスのテキストが表示されていたか否かを判定することにより、撮影動作によって得られた画像データにセンテンス及びタイトルのテキストデータを合成するか否かを判定する(ステップS26)。ステップS26の判定において、テキストデータを合成する場合に、MPU101は、テキスト合成回路112により、センテンス及びタイトルのテキストデータを画像データに合成してから記録メディア117に記録させる(ステップS27)。なお、テキストの合成位置及びテキストの色、テキストを縦書きとするか横書きとするか等はスルー画表示時にユーザによって設定されたものが適用される。一方、ステップS26の判定において、テキストデータを合成しない場合に、MPU101は、画像データのみを記録メディア117に記録させる(ステップS28)。画像データを記録メディア117に記録させた後、MPU101は図5の処理を終了させる。
Further, in the determination in step S11, when a shooting instruction is given, the
また、ステップS12の判定において、画像の再生指示がなされた場合に、MPU101はユーザによって選択された画像データを圧縮/伸張部115を介して伸張し、伸張した画像を表示パネル111に表示させる(ステップS29)。
In the determination of step S12, when an image reproduction instruction is issued, the
以上説明したように、本実施形態によれば、文芸書のタイトルを入力するだけで、撮影がなされる可能性の高い被写体に関するセンテンスがその文芸書から抽出される。撮影時には、サーバから抽出されたセンテンスの中から所望のものを選択するだけでユーザが撮影しようとしている画像にテキストが合成されて記録メディア117に記録される。これにより、画像とテキストが合成されたコンテンツを簡単に作成することができる。また、文芸書がガイドブックのようなものだと道順に沿った記述がなされることが多い。したがって、本実施形態のようにセンテンスのテキストを文芸書に出てきた順番で表示させることで、ユーザはその順番で撮影をしていけば、詳細な計画を立てずに旅に出ても、効率よく観光地を回ることができる。このように同じ文芸書中のセンテンスに従って撮影を行えば、一貫したテーマで画像の撮影を行うことができ、より見ごたえのあるコンテンツを作成することができる。
As described above, according to the present embodiment, just by inputting the title of a literary book, a sentence related to a subject that is likely to be photographed is extracted from the literary book. At the time of shooting, the text is synthesized with the image that the user is about to shoot by simply selecting a desired sentence from the sentences extracted from the server and recorded on the
また、人物の顔がある場合には顔の部分を避けるようにしたり、背景にテキストが同化しないようにテキストの色を変更したり、画面の向きに応じてテキストの向きを変更することで、ユーザは必ずしもテキストの位置や色のことを考慮しなくともコンテンツを作成することが可能である。 Also, if there is a person's face, avoid the face part, change the color of the text so that the text is not assimilated in the background, or change the direction of the text according to the orientation of the screen, The user can create content without necessarily considering the position and color of the text.
ここで、上述した実施形態においては、センテンスのテキストとともに文芸書のタイトルを画像に合成しているが、著者名も併せて合成するようにしても良い。また、上述した実施形態では、センテンスのテキストとタイトルのテキストとを一体として合成するようにしているが、タイトルのテキストは最初のセンテンスのみに合成するようにしても良い。 Here, in the embodiment described above, the title of the literary book is combined with the image together with the sentence text, but the author name may also be combined. In the above-described embodiment, the sentence text and the title text are synthesized as a unit. However, the title text may be synthesized only in the first sentence.
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上述した実施形態においては文芸書の文書データからセンテンスのテキストデータを抽出する処理をサーバ300において行っているが、データベース400をデジタルカメラ100に持たせれば、デジタルカメラ100においてセンテンスのテキストデータの抽出を行うこともできる。
Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, in the above-described embodiment, processing for extracting sentence text data from document data of a literary book is performed in the
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.
100…デジタルカメラ、101…マイクロプロセッシングユニット(MPU)、102…操作部、103…撮影レンズ、104…オートフォーカス(AF)回路、105…絞り機構、106…絞り制御回路、107…撮像素子、108…アナログフロントエンド(AFE)回路、109…画像処理回路、110…表示制御回路、111…表示パネル、112…テキスト合成回路、113…距離検出回路、114…顔検出回路、115…圧縮/伸張部、116…記録制御部、116a…センテンスデータベース、117…記録メディア、118…通信部、119…補助光発光回路、300…サーバ、400…データベース、500…パーソナルコンピュータ(PC)
DESCRIPTION OF
Claims (7)
文芸書のタイトルに応じた文芸書のテキストにおける、所定の特徴を有するキーワードを含むセンテンスを記録する記録部と、
上記センテンスと上記タイトルとを、上記画像に合成して表示する表示部と、
を具備することを特徴とするカメラ。 An imaging unit for acquiring an image;
A recording unit for recording a sentence including a keyword having a predetermined characteristic in the text of the literary book according to the title of the literary book;
A display unit configured to display the sentence and the title in combination with the image;
A camera comprising:
上記指定されたタイトルに応じた文芸書のテキストにおける、上記所定の特徴を有するキーワードを含むセンテンスを、ネットワークを介してサーバからダウンロードするダウンロード部と、
をさらに具備することを特徴とする請求項1に記載のカメラ。 A designation part for designating the title of the above literary book,
A download unit that downloads a sentence including a keyword having the predetermined characteristic in the text of the literary book according to the designated title from a server via a network;
The camera according to claim 1, further comprising:
上記表示部は、上記検出された姿勢に応じた向きで上記センテンスと上記タイトルとを上記画像に合成して表示することを特徴とする請求項1又は2に記載のカメラ。 It further comprises an attitude detection unit that detects the attitude of the camera,
The camera according to claim 1, wherein the display unit displays the sentence and the title combined with the image in an orientation corresponding to the detected posture.
上記表示部は、上記画像の、上記検出された顔部と重ならない位置に上記センテンスと上記タイトルとを合成して表示することを特徴とする請求項1又は2に記載のカメラ。 A face detection unit for detecting a human face in the image;
The camera according to claim 1, wherein the display unit synthesizes and displays the sentence and the title at a position in the image that does not overlap the detected face.
上記抽出したセンテンスと上記タイトルとを画像に合成する工程と、
上記合成した画像を表示する工程と、
を有することを特徴とするコンテンツ作成方法。 Extracting a sentence including a keyword having a predetermined characteristic from the text of the literary book according to the title of the literary book;
Synthesizing the extracted sentence and the title with an image;
Displaying the synthesized image; and
A content creation method characterized by comprising:
上記抽出したセンテンスと上記タイトルとを画像に合成する手順と、
上記合成した画像を表示する手順と、
をコンピュータに実行させるためのコンテンツ作成プログラム。 A procedure for extracting a sentence including a keyword having a predetermined characteristic from the text of a literary book according to the title of the literary book;
A procedure for combining the extracted sentence and the title with an image,
A procedure for displaying the synthesized image;
Content creation program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007112132A JP4889554B2 (en) | 2007-04-20 | 2007-04-20 | Camera, content creation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007112132A JP4889554B2 (en) | 2007-04-20 | 2007-04-20 | Camera, content creation method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008271239A true JP2008271239A (en) | 2008-11-06 |
JP2008271239A5 JP2008271239A5 (en) | 2010-05-27 |
JP4889554B2 JP4889554B2 (en) | 2012-03-07 |
Family
ID=40050153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007112132A Expired - Fee Related JP4889554B2 (en) | 2007-04-20 | 2007-04-20 | Camera, content creation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4889554B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244330A (en) * | 2009-04-07 | 2010-10-28 | Nikon Corp | Image performance program and image performance device |
JP2011007868A (en) * | 2009-06-23 | 2011-01-13 | Daiichikosho Co Ltd | Karaoke device displaying lyric subtitle while avoiding face image in background video image |
JP2013078142A (en) * | 2012-12-26 | 2013-04-25 | Olympus Imaging Corp | Display method of photographing system |
JP2019205111A (en) * | 2018-05-25 | 2019-11-28 | セイコーエプソン株式会社 | Image processing apparatus, robot, and robot system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001326846A (en) * | 2000-05-16 | 2001-11-22 | Fuji Photo Film Co Ltd | Image pickup device and its control method |
JP2003111009A (en) * | 2001-09-28 | 2003-04-11 | Fuji Photo Film Co Ltd | Electronic album editing device |
JP2004023681A (en) * | 2002-06-20 | 2004-01-22 | Nikon Gijutsu Kobo:Kk | Auxiliary device for haiku and storage medium |
WO2006080342A1 (en) * | 2005-01-31 | 2006-08-03 | Matsushita Electric Industrial Co., Ltd. | Imaging device, printing system and printing device, image printing method, and recording medium recorded with control program for the method |
JP2007018481A (en) * | 2005-06-10 | 2007-01-25 | Make Softwear:Kk | Image editing apparatus, image editing method, image editing program and automatic photographing apparatus |
JP2007047962A (en) * | 2005-08-09 | 2007-02-22 | Seiko Epson Corp | Editing device |
-
2007
- 2007-04-20 JP JP2007112132A patent/JP4889554B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001326846A (en) * | 2000-05-16 | 2001-11-22 | Fuji Photo Film Co Ltd | Image pickup device and its control method |
JP2003111009A (en) * | 2001-09-28 | 2003-04-11 | Fuji Photo Film Co Ltd | Electronic album editing device |
JP2004023681A (en) * | 2002-06-20 | 2004-01-22 | Nikon Gijutsu Kobo:Kk | Auxiliary device for haiku and storage medium |
WO2006080342A1 (en) * | 2005-01-31 | 2006-08-03 | Matsushita Electric Industrial Co., Ltd. | Imaging device, printing system and printing device, image printing method, and recording medium recorded with control program for the method |
JP2007018481A (en) * | 2005-06-10 | 2007-01-25 | Make Softwear:Kk | Image editing apparatus, image editing method, image editing program and automatic photographing apparatus |
JP2007047962A (en) * | 2005-08-09 | 2007-02-22 | Seiko Epson Corp | Editing device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244330A (en) * | 2009-04-07 | 2010-10-28 | Nikon Corp | Image performance program and image performance device |
JP2011007868A (en) * | 2009-06-23 | 2011-01-13 | Daiichikosho Co Ltd | Karaoke device displaying lyric subtitle while avoiding face image in background video image |
JP2013078142A (en) * | 2012-12-26 | 2013-04-25 | Olympus Imaging Corp | Display method of photographing system |
JP2019205111A (en) * | 2018-05-25 | 2019-11-28 | セイコーエプソン株式会社 | Image processing apparatus, robot, and robot system |
US11712807B2 (en) | 2018-05-25 | 2023-08-01 | Seiko Epson Corporation | Image processing apparatus, robot and robot system |
Also Published As
Publication number | Publication date |
---|---|
JP4889554B2 (en) | 2012-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012167238A1 (en) | Recording, editing and combining multiple live video clips and still photographs into a finished composition | |
US20130100329A1 (en) | Image pickup apparatus | |
JP2007027945A (en) | Photographing information presenting system | |
JP2009141516A (en) | Image display device, camera, image display method, program, image display system | |
JP4901258B2 (en) | Camera and data display method | |
JP4889554B2 (en) | Camera, content creation method, and program | |
WO2016208070A1 (en) | Imaging device and image processing method | |
JP2007164269A (en) | Retrieval device, retrieval/reproducing device, and image reproducing device | |
JP6043753B2 (en) | Content reproduction system, server, portable terminal, content reproduction method, program, and recording medium | |
JP5047592B2 (en) | Sentence publishing device with image, program, and method | |
JP2008066886A (en) | Camera, communication control device, photography technical assistance system, photography technical assistance method, program | |
JP2008078836A (en) | Camera, blog search system, and program | |
JP4981514B2 (en) | Camera and image recording method | |
JP6166070B2 (en) | Playback apparatus and playback method | |
JP6508635B2 (en) | Reproducing apparatus, reproducing method, reproducing program | |
JP5329691B2 (en) | Camera and camera control method | |
JP5372219B2 (en) | Camera with image transmission function and image transmission method | |
JP6916342B2 (en) | Imaging device and image processing method | |
JP7362696B2 (en) | Imaging device | |
JP6977847B2 (en) | Image management device, image management method and program | |
JP5409852B2 (en) | Virtual landscape display device and virtual landscape display method | |
JP2010045435A (en) | Camera and photographing system | |
JP2008289067A (en) | Imaging device, and image providing system and method | |
JP5657753B2 (en) | Camera with image transmission function, display control method, and image transmission method | |
JP5603979B2 (en) | Server and server image transmission method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100414 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100414 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111129 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4889554 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141222 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |